Oscilación-Neutrinos

Grupo AIA aplica su experiencia en IA al mundo de los neutrinos

En el mundo de la Física Cuántica, muchos son los caminos aún por explorar. La ciencia física avanza gracias, en parte, al desarrollo de nuevas tecnologías basadas en Inteligencia Artificial, que permiten realizar análisis mucho más rápidos y con mayor precisión que los sistemas tradicionales. En este mundo de nuevas tecnologías y el campo de la Física, se acaba de presentar un artículo titulado Likelihood-free inference of experimental Neutrino Oscillations using Neural Spline Flows realizado por dos miembros de Grupo AIA: Sebastian Pina Otey y Vicens Gaitán, y en colaboración con el Instituto de Física de Altas Energías-IFAE-, el Instituto de Ciencia y Tecnología de Barcelona-BIST-, y Federico Sánchez, del departamento de Física de la Universidad de Ginebra.

Para entender qué son las oscilaciones de neutrinos y cómo la utilización de Machine Learning podría ayudar a obtener resultados más precisos, tenemos que dar un paso atrás y ver cómo está conformado el mundo. Nuestro mundo y el universo entero están constituidos por materia. El sol, la tierra, el aire que respiramos, las plantas, los edificios…todo lo que nos rodea está compuesto por átomos.

Incluso nosotros.

Si miramos muy de cerca un átomo, podemos ver que está compuesto en parte por electrones. Los electrones son partículas elementales con carga negativa y están rodeando el núcleo del átomo, lo envuelven. Por otro lado, este núcleo está compuesto por protones, con carga eléctrica positiva, y neutrones, que no tienen carga eléctrica. Los protones y neutrones no son partículas elementales.

Pero esto no queda ahí; si observamos aún más cerca a estos protones y neutrones, veremos que están compuestos por quarks, que sí son partículas elementales. En definitiva, que el mundo que nos rodea está, básicamente, hecho de quarks y electrones. Así, los quarks y electrones (junto con muones y tauones forman las tres generaciones de leptones) conforman los Fermiones.

Volviendo a los neutrinos, gracias al descubrimiento de Wolfgang Pauli, se pudo saber que dos fermiones no pueden tener la misma energía, estar en el mismo lugar y tener idénticos números cuánticos. En nuestro mundo, la mayoría de los objetos mantienen la misma identidad cuando interactúan con algo. Una pelota seguirá siendo una pelota esté parada o en juego y esto no pasa con los neutrinos, que también son fermiones.

Pauli propuso la existencia de una partícula “fantasma” al no haber explicación a la pérdida de energía que se daba cuando un neutrón se dividía en un electrón y un protón. Según la teoría, la suma de energías del protón y del electrón tendría que ser igual a la del neutrón. ¿Os suena eso de “la energía ni se crea ni se destruye, solo se conserva”? La respuesta está en que esta partícula desconocida, que también emitía el neutrón cuando se dividía, contenía la energía restante.

Esta partícula “fantasma”, que fue llamada neutrino por Enrico Fermi, no debería de tener masa, ni carga, ni interacción nuclear. Fermi le puso este nombre en recuerdo del neutrón, porque esta partícula nueva no debería de tener carga como el neutrón, y además era muy escurridiza, indetectable, era un “fantasma”. Esto último indicaba que no debía de tener masa. En el mundo de la física, la teoría da lugar a la práctica, y otras muchas veces, la práctica exige nuevas teorías. Así, para poder confirmar la teoría de la existencia de los neutrinos había que poder verla y estudiarla.

Fueron Clyde L. Kaiwain y Frederic Reines los que demostraron su existencia utilizando agua. Emitieron un haz de neutrones en un tanque de agua extremadamente pura. Se sabe que la luz viaja más despacio en el agua. Si un neutrino con suficiente energía choca con un electrón, el electrón saldrá disparado a través del agua más rápido que la luz. Cuando esto sucede, el electrón emite un débil destello y este destello permite detectar al neutrino.

Así y todo, los neutrinos tienen unas capacidades muy especiales que tienen fascinados a los físicos teóricos de todo el mundo. Una de estas capacidades extraordinarias es la llamada Oscilación de Neutrinos. Existen tres tipos o “sabores” de neutrinos asociados a cada generación de leptones: electrónico, muónico y tauónico, que pueden variar su “sabor” según viajan en la distancia. Aquí entramos de lleno en las denominadas leyes de la mecánica cuántica.

Los neutrinos pueden estar en una combinación de estos tres sabores a la vez: electrónico, muónico y tauónico. Es como el famoso gato de Schrödinger: pueden estar en todos los sabores a la vez, pero hasta que no los ves no sabes qué sabor tiene.  De hecho, cada neutrino está compuesto por variaciones de cada uno de los 3 sabores. Estos estados variados se propagan a distintas velocidades y cuando esto ocurre, la combinación de sabores va cambiando según viaja en el tiempo. A este fenómeno se le llama Oscilación de neutrinos.

¿Y qué sabor tendrá al llegar un neutrino a su destino? Aunque no siempre podemos anticiparlo, sí podemos predecir las probabilidades de captar cada uno de ellos. Esto nos hace preguntarnos, ¿qué hace que los tres sabores iniciales se propaguen a velocidades diferentes? La respuesta está en su masa y que éstas son diferentes.

La demostración de la masa de los neutrinos fue lo que hizo que Takaaki Kajita y Arthur McDonald ganaran el Premio Nobel de Física en 2015, además de que se diera un paso adelante hacia un mayor entendimiento del Universo.

Con todo, para poder llegar a estos descubrimientos la tecnología es fundamental. En este campo, Sebastian Pina Otey- doctorando en Física Teórica y miembro de Grupo AIA- presenta en el artículo publicado en arXiv, una propuesta para el uso de Inteligencia Artificial en el análisis de los datos de investigación con neutrinos muónicos como alternativa a la forma tradicional. Actualmente, estos análisis son enormes, complejos y se realizan con las clásicas herramientas de inferencia estadística y comparaciones con histogramas.

Durante el transcurso de sus investigaciones, Sebastian Pina Otey y Vicens Gaitán, ambos investigadores de Grupo AIA, y junto con Federico Sánchez, han demostrado cómo nuevas tecnologías basadas en Inteligencia Artificial ofrecen metodologías alternativas para el análisis de los resultados que se llevan a cabo en el experimento T2K de Japón.

Esta tesis podría entenderse como una Prueba de Concepto, PoC, con la que se demuestra que el uso de Neural Spine Flows arroja resultados libres de ciertas suposiciones que necesitan los métodos clásicos y que estos podrían utilizarse en un futuro dentro de la colaboración con el experimento T2K.

El objetivo de la tesis no es otro que proporcionar nuevas herramientas de análisis de datos basados en IA para el experimento T2K de Japón y así contribuir a entender un poco más cómo está formado el Universo, el mundo y nosotros mismos.

 

Imagen: neutrino electrónico en SK- T2k.

inteligencia-artificial-fármacos

Inteligencia Artificial para descubrir nuevos fármacos

Las innovaciones en las ciencias biomédicas que están basadas en tecnología, son la esperada oportunidad de esta industria para ser más efectivos. El desarrollo de nuevos fármacos a través de la innovación en I+D que puedan completarse en menos tiempo y con menos costes, es el Santo Grial de la industria biofarmacéutica.

La innovación científica no solo trata de averiguar los mecanismos por los que se manifiesta una u otra enfermedad; sino que, además, se corresponde con la consecución de nuevas drogas que permitan evitar, paliar o curar una determinada dolencia.

Los costes que soporta la industria farmacéutica innovadora suponen más de 2400 millones de euros según Farmaindustria. Por otra parte, la inversión global en I+D en las farmacéuticas supone 30000 millones, solo en Europa. La cifra a nivel mundial sube hasta los 142000 millones de euros.

De estos datos, más del 57% se destina al diseño, desarrollo y evaluación de ensayos clínicos en sus 3 fases. La cantidad restante, 40%, se destina a la investigación básica, procesos de aprobación y farmacovigilancia.

Siguiendo los datos derivados de la patronal de las farmacéuticas innovadoras, se tarda un total de entre 12-13 años en desarrollar y llevar a un paciente un nuevo medicamento. Pero no todas las moléculas llegan a la fase de comercialización; muchas se quedan en el tintero en las diversas fases del desarrollo del fármaco.

Es en la parte de descubrimiento de dianas y el diseño de fármacos en las que la implementación de técnicas de Inteligencia Artificial ayuda a reducir tiempos hasta la mitad y por tanto, un ahorro de costes en la producción de nuevos medicamentos de hasta un 25%.

Actualmente, una biofarmacéutica española, Sylentis, ha implementado un software (siRFINDER) que emplea algoritmos basados en redes neuronales, SVM y machine learning para recoger, depurar y reinterpretar los datos experimentales generados por la farmacéutica. Esto les permite potenciar y desarrollar fármacos gracias a que el software les capacita para generar miles de compuestos específicos para tratar una enfermedad en cuestión de días. La farmacéutica reduce así los costosos y laboriosos trabajos de selección de candidatos, que suelen tardar años, en apenas unos días.

IA para los fármacos personalizados

Una encuesta realizada en junio por Deloitte y MIT Sloan Management Review encontró que solo el 20 por ciento de las compañías biofarmacéuticas son digitalmente maduras, y que la falta de visión clara, liderazgo y financiamiento están frenando a las compañías.

Según MarketsandMarkets, se espera que el mercado de la IA en la industria biofarmacéutica aumente de 198.3 millones de dólares en 2018 a 3.88 mil millones en 2025.

Las cuatro áreas proyectadas para impulsar la mayor parte del mercado de la IA en biofarmacia entre 2018 y 2025 incluyen: descubrimiento de medicamentos, medicina de precisión, diagnóstico por imágenes y diagnóstico médico e investigación. Según el informe, el descubrimiento de fármacos representó el mayor tamaño del mercado durante el período de estudio.

Existe un área que va desde la creación de moléculas candidatas hasta la producción del nuevo fármaco, que presenta una oportunidad única para el desarrollo acelerado de dichos fármacos. Las mejoras potenciales del proceso incluyen lo siguiente:

  • Rediseño de los procesos que mejoran la velocidad en el descubrimiento de nuevas moléculas y está basado en el conocimiento experto.
  • Digitalización que permita la automatización de procesos repetitivos a la vez que la generación de nuevos contenidos y nuevos datos.
  • Advanced analytics incorporando fuentes internas y externas. Aquí se incluirían los modelos predictivos.

Un papel clave para los algoritmos de IA es predecir las interacciones entre las moléculas para así, comprender los mecanismos de la enfermedad. Estos mecanismos a su vez, podrían ayudar a establecer nuevos biomarcadores; identificar, diseñar, validar y optimizar nuevos candidatos a fármacos; e identificar medicamentos existentes que podrían ser reutilizados para otras indicaciones.

 

 

Foto Louis Reed Unsplash

data translator

La figura escondida para el éxito de una implantación de la IA en las organizaciones

Las empresas continúan implementando Inteligencia Artificial en sus procesos: Marketing, Finanzas, Operaciones… todos ellos se ven beneficiados por la irrupción del uso del dato como eje transversal en las compañías.

En un reciente estudio publicado por Fujitsu y Pier Audoin Consultants, se pone de manifiesto que los beneficios que obtienen las empresas gracias a la IA empieza a dar resultados. No es algo a futuro que ocurrirá dentro de 5 años. El tiempo de la IA es ahora. Sin embargo, las cifras aún son bajas: solo el 11% de las empresas encuestadas está implantando estrategias de Inteligencia Artificial, el 29% tiene proyectos en fase de desarrollo y un 35% tiene pensado hacerlo en los próximos dos años.

Esta clasificación es la que se denomina innovators, early adopters, followers. Es decir, dependiendo del estado de madurez de las compañías y cómo están realizando la adaptación al dato, éstas se situarán en los porcentajes antes mencionados.

En esta línea, aquellos que han implementado IA o tienen en mente hacerlo aseguran que es la base para mejorar en la automatización de sus procesos (53%), mientras que un porcentaje cercano al 75% están creando las unidades de negocio para ayudar a su despliegue. Las principales áreas en las que se está empleando esta tecnología son en la mejora en la eficiencia de la producción, el mantenimiento predictivo y sobre todo en poder predecir el comportamiento del cliente para realizarle las acciones oportunas.

Sin embargo, hace unas semanas se ha publicado una encuesta realizada por MIT Sloan Management Review y Boston Consulting Group que  han arrojado datos diversos.

Mientras se asegura que la IA promete recompensas, éstas no están exentas de riesgos, como que tus competidores hayan decidido arriesgarse e ir un paso por delante. Son los innovators que utilizan la IA para la alineación, inversión e integración en toda la organización. De manera transversal y en todos los órdenes organizacionales.

Un gran número de empresas líderes son las que ven a la IA, no como una oportunidad sino como una estrategia de riesgo. Tanto, que desde 2017 a 2019 esta percepción se ha incrementado de 37% al 45% respectivamente.

Y en este saber manejar el riesgo muchas iniciativas basadas en IA fallan. 7 de cada 10 empresas encuestadas aseguran que apenas han obtenido réditos de esta tecnología. Y no es baladí cuando casi el 90% de las compañías han hecho alguna inversión en este campo.

El quid de la cuestión es que, si bien algunas empresas han descubierto cómo tener éxito, la mayoría de ellas tienen dificultades para generar valor con Inteligencia Artificial. Como resultado, muchos ejecutivos se enfrentan a un conjunto de realidades derivadas de la inteligencia artificial: la IA es una fuente de oportunidades sin explotar, es un riesgo existencial. Sobre todo, es un problema urgente que abordar. ¿Cómo pueden los ejecutivos explotar las oportunidades, gestionar los riesgos y minimizar las dificultades asociadas con la IA?

El traductor de datos, la figura oculta de las empresas

La capacitación de los profesionales, no sólo en el ámbito técnico y científico sino también en el área de interlocución  e interpretación se convierten en fundamentales para que la generación de valor diferencial a través de la inteligencia artificial sea un hecho. La capacidad de comprender profundamente el negocio y saber trasladarlo a los equipos técnicos encargados de aplicar la IA es el Santo Grial de todas las empresas, también de las proveedoras de este servicio.

Por otro lado, según Mckinsey, el éxito en la obtención de resultados a través de la IA y la analítica no recae solamente en los equipos de data scientist, data engineer o data analytics. Se necesita una figura transversal, el traductor de datos.

Mckinsey considera que esta figura asegura que las organizaciones logren un impacto real  en sus iniciativas analíticas ya que son capaces de interpretar correctamente las necesidades de negocio y traducirlas a lenguaje científico-técnico, y viceversa.

La experiencia en traducción de datos permite a este perfil ser un gran conocedor del negocio y de su cadena de valor, ya sea en el campo de la distribución, salud, marketing, manufacturing o cualquier otro ámbito.

Según define la consultora, en su función, los traductores ayudan a garantizar que los conocimientos profundos generados a través de análisis sofisticados se traduzcan en impacto a escala en una organización. Para 2026, el Instituto Global McKinsey estima que la demanda de traductores solo en los Estados Unidos puede llegar a dos o cuatro millones.

Por tanto, los traductores de datos aprovechan su conocimiento práctico de inteligencia artificial y análisis para transmitir estos objetivos comerciales a los profesionales de datos que crearán los modelos y las soluciones. Finalmente, los traductores se aseguran de que la solución produzca inisghts que la empresa pueda interpretar y ejecutar y, en última instancia, comunique los beneficios de estos insights a los empresarios para impulsar su adopción.

Una de las fórmulas para reducir la estrategia del riesgo que asumen las compañías cuando deciden estar a la vanguardia de su sector, es sin duda la capacidad de interpretar los datos y ofrecer insights a través de ellos.

IDENTIDAD-CLIENTE

Inteligencia Artificial para conocer la identidad del cliente

Cuando el cliente sabe lo que quiere, las empresas están obligadas a conocer ese querer. Sin embargo, según Gartner, los CMOs solo invirtieron el 29% de sus presupuestos en nuevas tecnologías que les permitieran satisfacer sus necesidades.

Es posible que los especialistas en marketing no tengan la tecnología adecuada ni sea la que tienen la suficiente. Por otro lado, también es común que los departamentos de Marketing tengan una visión incompleta de las capacidades tecnológicas que poseen y, por lo tanto, no estén usando todo por lo que han pagado.

Para garantizar un alto retorno de la inversión (ROI) para el negocio, los especialistas en marketing deberían comenzar con una auditoría del ecosistema tecnológico que está siendo usado dentro de la organización para, finalmente, poder establecer la mejor estrategia que derive en un alto ROI.

Sin embargo, creer que por tener una determinada tecnología ya se está destinado a generar dinero es un error común hoy en día. Según un estudio de la consultora McKinsey, la brecha tecnológica entre aquellas compañías líderes y las más rezagadas, está creciendo. Esto significa que aquellas que usan los datos para tomar decisiones están marcando las diferencias con el resto, que aún están luchando por lo básico en cuanto a análisis de datos y a tecnología se refiere.

Para las empresas innovadoras y las rezagadas la aparición del análisis de datos como una realidad para ofrecer mejores insights significa estar en posesión de una cultura del dato saludable. Unas lo implementan y otras no y por tanto unos obtendrán un mayor ROI, en detrimento de las empresas rezagadas que no han implementado esa cultura del dato.

Una vez tenemos una cultura del dato sana y la tecnología necesaria, llega el momento de escuchar al cliente. Como decíamos al inicio de este trabajo, mientras la captura de la atención del consumidor se incrementa, aumentan las necesidades de personalizar a los clientes. Los departamentos de Marketing invierten de media, un 14% para lograr la tan ansiada personalización, poco para los resultados que ofrece.

IA para la identidad del cliente

La necesidad de conocer al cliente, facilita la adopción y uso de la Inteligencia Artificial, no solo en el campo del Marketing sino a escala y en toda la organización.  Aquí nos encontramos con la encuesta a más de 3000 empresas realizada por McKinsey Global Institute,  llamado “Inteligencia artificial: ¿La próxima frontera digital?”  y descubrimos que los primeros usuarios de IA tienden a estar más cerca de la frontera digital. Es en esta frontera donde se sitúan las empresas más grandes dentro de cada uno de los sectores. Despliegan IA en todos los grupos, usan la IA en la parte más central de la cadena de valor, adoptan la IA para aumentar los ingresos y reducir los costos, y tienen el apoyo total del liderazgo ejecutivo. Las empresas que aún no han adoptado la tecnología de inteligencia artificial a escala o en una parte central de su negocio, no están seguras de los rendimientos que pueden esperar de una inversión así.

Son este grupo de empresas, las innovadoras, las que saben que la manera de personalizar las acciones a los clientes, presentes y futuros, es conociéndole. Es aquí donde la IA se introduce de lleno y capacita a los especialistas en Marketing a que puedan identificar a cada uno de ellos y personalizar sus acciones.

Uno de los elementos clave de las técnicas de identidad de cliente, es que permiten caracterizar a los clientes a partir de conceptos accionables. Estos conceptos accionables son los resultantes de incorporar el conocimiento experto de negocio a la IA, también llamados SIOs o Sistemas Inteligentes de Observación. El resultado es que el conjunto de estos conceptos permite obtener una visión amplia del cliente

Por tanto, las técnicas de identidad del cliente sirven a las compañías para obtener, por ejemplo, un mayor conocimiento de los hábitos de sus consumidores. Una vez se han identificado, las distintas áreas corporativas están capacitadas para realizar ofertas mejor personalizadas, que les permitan un mayor beneficio al mismo tiempo que satisfacen a los clientes. Como ejemplo, sirve para evitar el abandono una vez hemos analizado qué les produce insatisfacción. Pero también puede ayudar a establecer modelos predictivos de precios para determinados productos.

Las empresas innovadoras son las que están pudiendo responder a las clásicas preguntas ¿cómo se comporta mi cliente?, ¿qué información de valor puedo obtener de sus hábitos?, ¿cómo puedo mejorar los beneficios de la compañía? En parte, por su capacidad de estar siempre a la vanguardia.

adaptive-machine-learning

Adaptive Machine learning, o cómo analizar la volatilidad del entorno

El entorno está en constante cambio. Aunque  pensemos que es inmutable, que los datos que recabamos sobre personas y ambiente apenas cambia, lo cierto es que nada más lejos de la realidad. Hay datos que varían de tal manera que las predicciones hechas con técnicas de Machine learning se quedan obsoletas. ¿Por qué?

En la última curva de tendencias de Gartner, una de las tecnologías que tendrán mayor auge en los próximos años será el Adaptive Machine learning, o lo que es lo mismo, aprendizaje automático adaptativo. Esta tecnología proporciona la capacidad de volver a entrenar con frecuencia los modelos de machine learning cuando los datos están online y en tiempo real. Esta capacidad permite a los modelos de machine learning adaptarse a las circunstancias de un mundo en constante cambio.

Gracias a esta capacidad de adaptación al entorno, esta tecnología es particularmente útil si queremos entrenar coches autónomos. Estos coches han de ser capaces de incorporar nuevos datos en tiempo real, analizarlos y tomar decisiones basados en esos datos.

Sin embargo, su uso puede ir más allá de los coches autónomos (a los que Gartner le da más de 10 años antes de que podamos ver uno). El aprendizaje automático adaptativo en tiempo real requiere un aprendizaje de refuerzo eficiente (reinforcement learning), es decir, cómo un algoritmo debe interactuar continuamente con su entorno para maximizar su recompensa. Estos algoritmos funcionarían para la agricultura, el marketing online, las smart cities o incluso las entidades financieras o cualquier industria que utilice IoT.

En estos entornos cambiantes, no es posible coger la gran cantidad de datos que se generan, ordenarlos, cualificarlos y entrenar un modelo de machine learning “tradicional” ya que éste debe de reentrenarse y tomar decisiones en tiempo real.

Una idea de los años 50

Aunque pueda sonar muy novedoso lo cierto es que fue en los años 50 del pasado siglo cuando B.F. Skinner desarrolló una máquina de enseñanza centrada en el desarrollo de habilidades que se vieran incrementadas. La idea era controlar el progreso estudiantil en la enseñanza programada. La máquina adaptó las preguntas presentadas en base a las respuestas acertadas anteriormente y proporcionó a los estudiantes la capacidad de ir aprendiendo a su propio ritmo.

No fue hasta la década de 1970 cuando esta idea se empezó a desarrollar en el campo de la inteligencia artificial. Pero como todo en aquella época, más que no poder llevar a cabo el desarrollo del aprendizaje automático adaptativo lo que realmente frenó su avance fue la falta de capacidad de computación, captura y almacenamiento  de los datos. Simplemente, no estábamos preparados.

A pesar de ello, el aprendizaje automático adaptativo no murió allí. En las siguientes décadas estas tecnologías se volvieron más ágiles, escalables y fáciles de usar aunque no fueron muy utilizadas.

Hoy en día existen multitud de campos en los que el uso de adaptive machine learning puede ser utilizado, más allá del coche autónomo y algún que otro robot. En el campo de las finanzas, esta tecnología está permitiendo incorporar datos online para, por ejemplo, ver cómo evolucionan las bolsas.  También está siendo utilizado para la predicción de la localización (muy útil para los coches autónomos), publicidad programática mejorando las apuestas o en el campo de los seguros.

Según Gartner, adaptive machine learning sigue siendo un reto ya que habrá que tener en cuenta aspectos como la privacidad, cuestiones éticas, y seguridad en todos aquellos sistemas basados en autoaprendizaje  y autonomía. Las compañías, por su parte, emplearán este aprendizaje para impulsar de manera continua la toma de decisiones autónomas e inteligentes.

Esto último no quiere decir que se tenga que cambiar las metodologías actuales basadas en machine learning, ya que, una vez entrenados los algoritmos offline, el aprendizaje adaptativo permite mejorar, contextualizar y personalizar aún más los modelos de machine learning existentes.

marketing-comportamental

Marketing comportamental, hacia la personalización de productos

Hoy en día nos hemos acostumbrado a que determinadas empresas nos recomienden productos o servicios y tendemos a pensar que estas recomendaciones están hechas para cada uno de nosotros. Creemos que los productos que nos recomiendan están personalizados, siendo diferentes a cada persona. Sin embargo, esto no es cierto del todo.

Para la mayoría de las personas, la personalización y la recomendación es la misma cosa. Cuando una empresa adapta su servicio para satisfacer nuestras necesidades, puede usar recomendaciones para personalizar nuestras compras, por lo que estas palabras suenan como si fueran sinónimos. Pero no lo son.

El primer intento de definir qué constituye un motor de personalización lo hizo Gartner en su Guía para motores de personalización digital de 2015. La firma tecnológica definió la personalización como:

Un proceso que crea una interacción relevante e individualizada entre dos partes diseñada para mejorar la experiencia del destinatario. Utiliza información basada en los datos personales del destinatario, así como datos de comportamiento sobre las acciones de individuos similares, para ofrecer una experiencia que satisfaga necesidades y preferencias específicas.

Por lo tanto, los motores de personalización son soluciones habilitadoras para el proceso de personalización, que determina y brinda la experiencia que el usuario busca, entrega mensajes personalizados (correo electrónico, texto, notificación automática) y proporciona análisis e informes al usuario de negocio.

Mientras que en las recomendaciones, las ofertas de producto/contenido se refieren a que se hace una pequeña selección de artículos del catálogo y se muestran de varias maneras al usuario (banners, mensajes, cuadros de recomendación), por lo tanto, podríamos decir que la recomendación se refiere más bien a la presentación de los artículos.

Sin embargo, una recomendación es una forma de personalización, pero la personalización no es una forma de recomendación. Pongamos como ejemplo YouTube. La plataforma de videos de Google podría sugerir videos relacionados basados en los hábitos de visualización anteriores del usuario. Una recomendación estaría también basada en lo que otros usuarios de YouTube vieron. Por otro lado, Facebook personaliza el feed de noticias de tu perfil basado en la actividad de tus conexiones, pero no te recomienda uno u otro. Esto último es la personalización, ya que se basa en los hábitos específicos del individuo y no en un algoritmo generalista. Cuanto más se sepa sobre una persona, no solo sobre sus hábitos de visualización, mejor. En otras palabras, una recomendación a menudo se basa en elementos, mientras que la personalización se basa en individuos.

Por tanto, ¿Cómo podemos hablar de sistemas de recomendación personalizados si uno habla de producto y otro de personas? Fácil, incorporando los hábitos específicos de la persona en el motor de recomendación. A mayor conocimiento del cliente, mayor personalización en los productos recomendados.

Hoy en día, son pocas las empresas que realmente pueden personalizar sus estrategias de Marketing comportamental ya que se necesitan, no solo implementar un algoritmo para la recomendación si no incorporar todos los datos de los clientes y no clientes. Ahí radica la dificultad, pero pasemos a contaros cómo podríamos hacerlo con un ejemplo.

Marketing comportamental en banca

Sabemos que la banca está dando pasos de gigante para acertar con las necesidades del cliente. Atrás quedaron los tiempos en los que se publicitaban servicios financieros a todo el mundo sin importar sus condiciones personales y que tantos quebraderos de cabeza les han dado.

Hoy en día, los departamentos de Ventas y Marketing de los bancos necesitan conocer más a sus clientes y ofrecerles lo que realmente necesitan en cada momento. Una de las tácticas que emplean las entidades bancarias es la de comprender al usuario incorporando los datos de navegación online.

Se define Marketing Comportamental como a las acciones de venta, comercialización y difusión basados en el comportamiento del consumidor a través de las cookies, los datos sociales, analítica web, historial de navegación, historial de compras y dirección IP, entre otros. En este caso, la cookie recaba información anónima sobre los hábitos de navegación con el fin de ofrecerle publicidad acorde a sus intereses.

Así, con el uso del Marketing Comportamental se envían ofertas según el perfil de cada usuario, se evita realizar ofertas que no casan con el cliente y ser considerados spammers.

De esta manera, cuando un cliente de la entidad accede a su página web, éste deja un rastro de migas de pan que, cual camino de baldosas amarillas, nos indica qué ha visto, cuánto tiempo ha estado en cada parte de la web y si ha realizado alguna acción, como comprobar cuánto crédito tiene. A la vez, si incorporamos toda la información disponible de ese cliente (historial de navegación, historial de compra, dirección IP, datos sociales, datos de la app…) podemos llegar a conocer la propensión que tiene a determinado producto bancario.

Tener en cuenta la identidad del usuario va a permitir caracterizar a los clientes y su relación con la entidad mediante una serie de variables que va a describir, de forma comprensible, cómo es cada usuario. El uso de los hábitos de navegación como parte de la caracterización de los usuarios, nos permite tener una visión más completa y, por tanto, mejorar la personalización en la recomendación de productos.

El uso de técnicas de Deep Learning y Machine Learning nos permite incorporar los datos de los usuarios lo que mejoraría el modelo de personalización  y nos capacitaría para conocer la propensión de una determinada persona a comprar un producto determinado. Es decir, aumenta las tasas de éxito para los departamentos de ventas a la hora de ofrecer un producto bancario u otro.

Gartner cambia su manera de interpretar las tecnologías emergentes

Como cada año por estas fechas, la firma tecnológica Gartner publica cuáles serán las tecnologías de los próximos años. Estas tendencias son estudiadas por los CTO, CIO y CEO de todo el mundo con el fin de saber hacia dónde dirigir sus esfuerzos tecnológicos y cómo implementarlos estratégicamente en sus compañías.

Fue en 1995 cuando Gartner comenzó a publicar lo que consideraba las principales tecnologías emergentes y desde entonces, sus predicciones son una institución ente la comunidad tech. Desde 1995, este modelo supone una guía para la adopción de nuevas tecnologías. La gráfica está dividida según su madurez, a saber, emergente o desencadenante tecnológico, excesivo entusiasmo o cómo se inflan las expectativas sobre una tecnología; la decepción y la adopción gradual de dicha tecnología.

Curva gartnerDe esta manera, gracias a Gartner podemos ver cuáles eran las tecnologías más punteras en aquella época, como por ejemplo, la programación orientada a objetos. Ha tenido que pasar casi un cuarto de siglo para ver que este tipo de programación es el pan nuestro de cada día. Más ejemplos, en ese año, en lo más alto de la curva (hype) se encontraban los denominados “agentes inteligentes” es decir, aquellos ayudantes virtuales que te permitían hacerles preguntas y te ayudaban. En esa década fue Microsoft el que se lanzó con Clippy. El ayudante de Office fue una interfaz de usuario inteligente para Microsoft Office que ayudaba a los usuarios a través de un personaje animado interactivo que interconectaba con el contenido de la ayuda de Office.

Para quienes vivieron esa época recordarán que no tuvo mucho éxito, molestaba más que ayudaba y finalmente los de Redmon lo eliminaron. Hoy en día y casi 25 años después, estos asistentes virtuales están viviendo una segunda juventud gracias a los Chatbots.

¿Y por qué ocurre esto? Son los investigadores, las startups y las grandes empresas tecnológicas las que continúan desarrollando este tipo de tecnologías años después, evolucionando lo que era una idea extravagante hasta convertirlo en algo fundamental para la sociedad.

Curva-gartner-1995

Primera curva de Gartner 1995

La curva de Gartner, hoy

Este año, la curva de tendencias  destaca aquellas tecnologías emergentes con un impacto significativo en los negocios, la sociedad y las personas para los próximos cinco a 10 años. Este 2019 se incluyen tecnologías que prometen ofrecer un internet global de baja latencia, crear un mapa virtual del mundo real e imitar la creatividad humana. Es decir, a partir de ahora lo más novedoso será la sensorización y movilidad,  Augmented Humans, Computación y comunicación, ecosistemas digitales. – Inteligencia Artificial avanzada y analítica.

Sin embargo, desde hace unos años, este hype tiende a tener “menos cosas” en su parte derecha, esto quiere decir que en Gartner se quieren centrar más en aquellas tecnologías que realmente van a tener un futuro y no tanto en aquellas que pueden o no serlo. Esto se debe a que, en los últimos años se han oído muchas críticas hacia esta gráfica porque muy pocas conseguían pasar de la parte teórica.

De hecho, si nos fijamos en esta curva, este año no aparece ni blockchain, ni inteligencia artificial, ni gemelos digitales, deep learning, ni realidad aumentada ya que estas tecnologías, en este caso, están ya ampliamente adoptadas. Sin embargo, si analizamos algunas de las curvas que la firma tecnológica ha publicado en estos años, vemos como algunas tecnologías que tenían como periodo para desarrollarse un par de años han tardado más de una década en empezar a ser una realidad. Como ejemplo de esto nos encontramos que en 1995 el reconocimiento por voz estaba en la fase de productividad cuando ha sido ahora, con el desarrollo de deep learning cuando ha empezado a tener su “lugar en el mundo”. Dos décadas después.

Esto nos podría llevar a pensar que las predicciones de Gartner no son muy buenas. En ninguna de sus 24 curvas de tecnologías emergentes se hablaba de virtualización; NoSQL; open source, Map Reduce o Hadoop. Esto es debido a que tendemos a sobrevalorar algunas tecnologías cuando aparecen y otras, por el contrario, simplemente no obedecen a las reglas de la curva de Gartner.

 

marketing ia

10 formas en las que Marketing utiliza la IA [Infografía]

Las aplicaciones de la Inteligencia Artificial en el campo del Marketing y Ventas están permitiendo a las compañías, a día de hoy, conocer mejor a sus clientes y tratar de ofrecer las mejores ofertas de sus productos en tiempo real. El aprendizaje automático y la inteligencia artificial son las tecnologías que los Chief Marketing Officers-CMO- y sus equipos necesitan para sobresalir y tomar ventaja sobre sus competidores.

En la búsqueda de satisfacer a los clientes, los mejores CMOs son capaces de equilibrar las ejecuciones de las tácticas de Marketing y todos aquellos elementos que hacen que la marca de la empresa y la experiencia del cliente sean únicas.

En el momento en el que se es capaz de conocer cómo los prospectos toman sus decisiones sobre cómo, cuándo y dónde comprar, las estrategias de Marketing se vuelven más interesantes. La analítica avanzada nos permite segmentar a los clientes con el objetivo de poder conocer mejor sus preferencias. Gracias a este conocimiento, posteriormente podemos calcular la propensión a compra de un producto o incluso prevenir el abandono en el proceso de compra, establecer los mejores precios adecuados a los clientes, además de un largo etcétera.

Según el último estudio de Forbes Insights and Quantcast Research, el uso de la IA permite a los departamentos de Marketing y Ventas incrementar sus ventas en un 52% e incrementar la retención de los clientes en  un 49%.

La infografía muestra los diez datos más relevantes en los que la Inteligencia Artificial está ayudando a día de hoy a los equipos de Marketing. En los próximos dos años, según los informes, la implementación de tecnologías basadas en Inteligencia Artificial y aprendizaje automático estará ampliamente adoptada por aquellas empresas que ya están empezando a comprender las bondades que les permite esta tecnología.

IA-y-marketing

concierto-musica

Matemáticas y música: las ventajas de usar la Inteligencia Artificial

Ya nos hemos acostumbrado a que Spotify nos seleccione música acorde a nuestros gustos, según lo que hemos escuchado, y haga clasificaciones a partir de ello. Para poder hacer esto, la compañía sueca tiene que gestionar la subida de más de 20000 nuevas canciones o podcasts cada día y lo hace con la ayuda de la inteligencia artificial. Nos entrega la música que más escuchamos en un periodo de tiempo, como su función “Tus recuerdos de verano”, y nos crea diferentes grupos de música dependiendo de lo que hayamos estado escuchando en los últimos días.

Con esta ayuda, la clasificación musical entorno a géneros ha quedado obsoleta porque las listas generadas por inteligencia artificial no depende del género sino que está determinado por “la buena música”. Es normal pensar que a no todos les gusta el mismo género de música, sin embargo, lo que sí funciona son determinadas pautas matemáticas específicas que son transversales a los géneros musicales. Por esta razón hay personas que, aunque lo que más le guste sea el Pop, disfrutan de una canción clasificada como Rock.

Existen distintos campos en los que la inteligencia artificial tiene un espacio en el que mejorar los procesos musicales. En los años 50, Alan Turing fue el primero en grabar música generada por un ordenador. Comenzaba así, la primera de una interesante área en la que es la IA la que crea la música y que utiliza el aprendizaje por refuerzo para ello. El algoritmo aprende qué características y patrones son los que crean música que pertenece a un género determinado y finalmente, compone.

Gracias a esta aplicación, la inteligencia artificial ayuda a las compañías a crear nueva música o asiste a los compositores en sus creaciones.

Otro de los campos en donde la inteligencia artificial tiene una gran aceptación es en la parte de edición. La experiencia de escuchar una música y que su sonido sea claro y limpio, es uno de los factores que los melómanos sin duda aprecian más. Aunque siguen siendo necesario el componente creativo, la IA capacitaría a aquellos que no tienen esa habilidad creativa a editar sus audios propiamente.

Cuando hablamos de matemáticas aplicadas a la música tenemos que comprender que ésta está presente en diversas áreas como son las afinaciones, la disposición de notas, los acordes, armonías, ritmo, tiempo y nomenclatura.

Los orígenes

Ya en el año 2002, Polyphonic HMI se fundó con las premisas de utilizar la inteligencia artificial y aplicarlo a la industria musical. Gracias al estudio de los componentes matemáticos de la música, se podía determinar qué canción iba a tener probabilidades de éxito. Aunque el éxito de un artista depende de muchos factores, este sistema ayudaba a simplificar los esfuerzos para saber qué canción podría servir como single de lanzamiento de un nuevo álbum e incluso de un nuevo artista. Gracias a esto, las casas discográficas, los productores y los representantes podían dirigir los recursos hacia un entorno más favorable. La comercialización de la música siempre ha sido un negocio caro y todo un reto el encontrar artistas prometedores y canciones con “gancho”.

Quince años después, las principales compañías tecnológicas están invirtiendo en esta tecnología con miras a ayudar a los distintos procesos en los que la industria musical se ve envuelta. Gracias a las matemáticas, podemos ver cómo la inteligencia artificial influencia en la música que escuchamos y enriquece nuestra experiencia musical.

ordenador-cuantico

Conoce el estado actual de la computación cuántica

En el último cuatrimestre de 2018, la Unión Europea lanzaba Quantum Flagship, un megaproyecto dotado con más de 1000 millones de euros para un periodo de 10 años en el que más de 5000 investigadores apostaban por desarrollar las tecnologías cuánticas y llevar sus funcionalidades al mercado. Europa llegaba así a la carrera iniciada por China y Estados Unidos. Ambos países quieren dominar, o al menos tomar ventaja, en la ya denominada carrera cuántica. La Unión Europea se subía así a lomos de la investigación y desarrollo con más potencial de los últimos tiempos.

Esta Quantum Flagship construirá una red de programas europeos de tecnologías cuánticas que impulsará un ecosistema capaz de proporcionar el conocimiento, las tecnologías e infraestructuras necesarios para el desarrollo de esta industria. Las áreas de investigación se centran en la comunicación cuántica (QComm), la computación cuántica (QComp), simulación cuántica (QSim), metrología y detección cuántica (QMS) y ciencia básica (BSci).

Uno de los aspectos que más se está investigando es el campo de la computación cuántica, en donde grandes empresas tecnológicas están inmersas en una carrera comercial para ver cuál de ellas pone en marcha el primer ordenador cuántico. Pero, ¿cuáles son las principales características de la computación cuántica y cómo pueden beneficiarnos?

Los ordenadores actuales, ya sean portátiles o grandes computadores, se basan en circuitos básicos binarios, es decir, responden a “sí/no”. Gracias a esto, los programadores pueden crear tareas que hacen que ese ordenador funcione con el uso de las sentencias “if this/then that” (si ocurre esto, entonces haces eso). Sin embargo, existen diferentes ejemplos en los que un ordenador de estas características no puede resolver determinados problemas de manera eficiente. Esto ocurre por ejemplo en muchos problemas de optimización matemática, en donde un ordenador actual debe tomarse su tiempo para evaluar individualmente cada posible candidato a solución para encontrar el óptimo.

Por su parte, los ordenadores cuánticos tienen un concepto completamente diferente porque no usan la lógica binaria “sí/no”. Su naturaleza hace que sus circuitos básicos puedan responder “sí/no/ambos (y en esta proporción)”. Cuando un desarrollador trabaja con un sistema cuántico, puede implementar instrucciones del tipo “if this, then that/not-that/both” y he aquí lo que marca la gran diferencia. Pueden explorar gran cantidad de información al mismo tiempo, ofreciendo soluciones muy eficientes a problemas muy complejos, como por ejemplo la optimización de rutas de transporte.

A día de hoy, la computación cuántica no está desarrollada tal y como estamos acostumbrados (un ordenador que ejecute tareas), porque uno de los problemas a los que se enfrenta la computación cuántica es construir los ordenadores cuánticos multipropósito. Comparado con un ordenador normal, un ordenador cuántico es una máquina extremadamente compleja. Las primeras versiones que se empiezan a ver, como la recientemente presentada por IBM, se basan en materiales superconductores (dispositivos de unión Josephson), los cuales necesitan trabajar a una temperatura cercana al cero absoluto (-273 ºC). La tecnología auxiliar de criogenia y los componentes para poder leer y manipular de manera estable estos qubits son extremadamente caros y complejos.

A pesar de las dificultades técnicas inherentes a los sistemas mecano-cuánticos, se están llevando a cabo numerosas investigaciones que ponen de manifiesto las prometedoras aplicaciones que tendrá la computación cuántica en cuanto el hardware esté disponible. Entre ellas, la Inteligencia Artificial.