Los portales de noticias y las redes sociales son ricas fuentes de información, por ejemplo para predecir las tendencias del mercado de valores. Muchos proveedores de servicios permiten rastrear grandes colecciones de textos introduciendo en sus motores de búsqueda palabras clave descriptivas, que tienden a ser muy ambiguas, sin embargo, y muestran rápidamente los límites de las tecnologías de búsqueda actuales.
Científicos de la computación de la Universidad del Sarre (Alemania) han desarrollado una nueva tecnología de análisis de textos que mejora considerablemente la búsqueda en colecciones de texto muy grandes por medio de la inteligencia artificial. Más allá de las búsquedas, esta tecnología también ayuda a investigar e incluso en la escritura de textos, proporcionando automáticamente información de contexto y sugiriendo enlaces a sitios web de interés.
Ambiverse, una empresa spin-off del Instituto Max Planck de Informática de Saarbrücken, presentará esta nueva tecnología durante la feria de tecnología CeBIT 2016, que se celebrará en Hannover del 14 al 18 de marzo.
En la era de los teléfonos inteligentes y las salas de chat, la información en las empresas no se distribuye a través de palabras habladas, sino más bien a través de correos electrónicos, bases de datos y portales de noticias internas.
"De acuerdo con una encuesta realizada por la empresa de análisis de mercado Gartner, apenas un cuarto de todas las empresas están utilizando métodos automáticos para analizar su información textual. Para 2021, Gartner predice que lo hará el 65 por ciento. Esto se debe a que la cantidad de datos dentro de las empresas está en continuo crecimiento y, por tanto, se hace más y más costoso tenerlos estructurados y rastrearlos con éxito", dice Johannes Hoffart, investigador del Instituto Max Planck de Informática y fundador de Ambiverse.
Su equipo ha desarrollado una nueva tecnología para el análisis de grandes cantidades de texto, en la que la inteligencia artificial está continuamente "pensando en voz alta" al fondo.
"Para el análisis de los textos, nos basamos en conjuntos extremadamente grandes de conocimiento construidos a partir de fuentes de libre acceso como Wikipedia o grandes portales multimedia de la web. Estos conjuntos pueden crecer con conocimiento específico de la empresa o del ámbito de actuación, tales como catálogos de productos o correspondencia de los clientes", dice Hoffart en la nota de prensa de la universidd, recogida por AlphaGalileo.
Mediante la aplicación de algoritmos complejos, estos textos son examinados y analizados con herramientas lingüísticas. "Nuestro software asigna entonces las empresas y áreas de negocio a las categorías correspondientes, lo cual nos permite reunir información valiosa sobre cómo de bien posicionados en el mercado están sus productos en comparación con los de los competidores", explica. Un reto especialmente difícil es el hecho de que los nombres de productos y empresas son de todo menos únicos y tienden a tener significados completamente diferentes en diferentes contextos, lo que los hace muy ambiguos.
Ambigüedad
"Nuestra tecnología ayuda a asignar palabras y frases a los objetos correctos del mundo real, resolviendo las ambigüedades de forma automática", explica el científico de la computación. París, por ejemplo, no solo representa la ciudad de la luz y la capital francesa, sino también una figura de la mitología griega o una conocida chica con antepasados alemanes, siempre según el contexto.
"La búsqueda eficiente de enormes colecciones de texto sólo es posible si los diferentes significados de un nombre o un concepto están resueltos correctamente", dice Hoffart. El motor de búsqueda inteligente desarrollado por su equipo aprende de forma continua y mejora con el tiempo, y también asocia automáticamente nuevas entradas de texto a categorías similares. "Estos algoritmos son, por tanto, atractivos para las empresas que analizan las redes sociales o los medios de comunicación en línea para medir el grado de conocimiento de la marca de un producto o el éxito de una campaña de marketing", añade el investigador.
En CeBIT, Ambiverse presentará además una plataforma de creación inteligente que ayuda a los autores a investigar y escribir textos. Los usuarios introducen textos y reciben automáticamente información de contexto: por ejemplo, guías y manuales internos de la empresa o enlaces de Internet.
Los visitantes al stand de Ambiverse en CeBIT también tendrán la oportunidad de competir con su novedosa tecnología de inteligencia artificial, jugando a un juego de preguntas y respuestas. Ambiverse está financiada por el Ministerio alemán de Economía.
Científicos de la computación de la Universidad del Sarre (Alemania) han desarrollado una nueva tecnología de análisis de textos que mejora considerablemente la búsqueda en colecciones de texto muy grandes por medio de la inteligencia artificial. Más allá de las búsquedas, esta tecnología también ayuda a investigar e incluso en la escritura de textos, proporcionando automáticamente información de contexto y sugiriendo enlaces a sitios web de interés.
Ambiverse, una empresa spin-off del Instituto Max Planck de Informática de Saarbrücken, presentará esta nueva tecnología durante la feria de tecnología CeBIT 2016, que se celebrará en Hannover del 14 al 18 de marzo.
En la era de los teléfonos inteligentes y las salas de chat, la información en las empresas no se distribuye a través de palabras habladas, sino más bien a través de correos electrónicos, bases de datos y portales de noticias internas.
"De acuerdo con una encuesta realizada por la empresa de análisis de mercado Gartner, apenas un cuarto de todas las empresas están utilizando métodos automáticos para analizar su información textual. Para 2021, Gartner predice que lo hará el 65 por ciento. Esto se debe a que la cantidad de datos dentro de las empresas está en continuo crecimiento y, por tanto, se hace más y más costoso tenerlos estructurados y rastrearlos con éxito", dice Johannes Hoffart, investigador del Instituto Max Planck de Informática y fundador de Ambiverse.
Su equipo ha desarrollado una nueva tecnología para el análisis de grandes cantidades de texto, en la que la inteligencia artificial está continuamente "pensando en voz alta" al fondo.
"Para el análisis de los textos, nos basamos en conjuntos extremadamente grandes de conocimiento construidos a partir de fuentes de libre acceso como Wikipedia o grandes portales multimedia de la web. Estos conjuntos pueden crecer con conocimiento específico de la empresa o del ámbito de actuación, tales como catálogos de productos o correspondencia de los clientes", dice Hoffart en la nota de prensa de la universidd, recogida por AlphaGalileo.
Mediante la aplicación de algoritmos complejos, estos textos son examinados y analizados con herramientas lingüísticas. "Nuestro software asigna entonces las empresas y áreas de negocio a las categorías correspondientes, lo cual nos permite reunir información valiosa sobre cómo de bien posicionados en el mercado están sus productos en comparación con los de los competidores", explica. Un reto especialmente difícil es el hecho de que los nombres de productos y empresas son de todo menos únicos y tienden a tener significados completamente diferentes en diferentes contextos, lo que los hace muy ambiguos.
Ambigüedad
"Nuestra tecnología ayuda a asignar palabras y frases a los objetos correctos del mundo real, resolviendo las ambigüedades de forma automática", explica el científico de la computación. París, por ejemplo, no solo representa la ciudad de la luz y la capital francesa, sino también una figura de la mitología griega o una conocida chica con antepasados alemanes, siempre según el contexto.
"La búsqueda eficiente de enormes colecciones de texto sólo es posible si los diferentes significados de un nombre o un concepto están resueltos correctamente", dice Hoffart. El motor de búsqueda inteligente desarrollado por su equipo aprende de forma continua y mejora con el tiempo, y también asocia automáticamente nuevas entradas de texto a categorías similares. "Estos algoritmos son, por tanto, atractivos para las empresas que analizan las redes sociales o los medios de comunicación en línea para medir el grado de conocimiento de la marca de un producto o el éxito de una campaña de marketing", añade el investigador.
En CeBIT, Ambiverse presentará además una plataforma de creación inteligente que ayuda a los autores a investigar y escribir textos. Los usuarios introducen textos y reciben automáticamente información de contexto: por ejemplo, guías y manuales internos de la empresa o enlaces de Internet.
Los visitantes al stand de Ambiverse en CeBIT también tendrán la oportunidad de competir con su novedosa tecnología de inteligencia artificial, jugando a un juego de preguntas y respuestas. Ambiverse está financiada por el Ministerio alemán de Economía.
Intoxicaciones en tuits
La tecnología de lenguaje natural permite utilizar las redes sociales para usos de lo más variado, como encontrar fuentes de intoxicación alimentaria. Investigadores de la Universidad de Rochester (Nueva York, EE.UU.) han desarrollado una aplicación que utiliza el procesamiento del lenguaje natural y la inteligencia artificial para identificar tuits relacionados con intoxicaciones alimentarias, conectarlos a los restaurantes usando geoetiquetado e identificar probables puntos conflictivos.
Según informa Dail Software, los investigadores han mostrado que es posible deducir el origen de los brotes usando el contenido público de las redes sociales y algoritmos de aprendizaje profundo entrenados para reconocer rasgos lingüísticos asociados con una enfermedad: “Siento náuseas”, por ejemplo.
En un artículo, los investigadores describen su colaboración con el departamento de salud de Las Vegas, cuyos funcionarios utilizaron la aplicación llamada nEmesis para mejorar los protocolos de inspección de la ciudad.
Normalmente, las ciudades (como Las Vegas) utilizan un sistema aleatorio para decidir qué restaurantes inspeccionar en cualquier día dado. El equipo de investigación convenció a los funcionarios de Las Vegas para reemplazar su sistema aleatorio con una lista de posibles sitios de infección derivada de sus algoritmos inteligentes.
En un experimento controlado, la mitad de las inspecciones se realizaron utilizando el enfoque al azar y la otra mitad se realizaron utilizando nEmesis, sin que los inspectores supieran de que se había cambiado el sistema.
Durante tres meses, el sistema escaneó automáticamente un promedio de 16.000 tuits de 3.600 usuarios cada día. 1.000 de los tuits estaban relacionados con un restaurante específico y de ellos, aproximadamente 12 incluían contenido que probablemente significaba una intoxicación alimentaria.
Analizando los resultados del experimento, encontraron que el sistema basado en tuits llevó a un 15 por ciento de citaciones por infracciones sanitarias respecto al total de inspecciones, en comparación con el 9 por ciento del sistema aleatorio. Algunas de las inspecciones acabaron en advertencias; otras, en cierres.
Los investigadores estiman que estas mejoras en la eficacia de las inspecciones dieron lugar a 9.000 menos incidentes de envenenamiento por alimentos y 557 menos hospitalizaciones en Las Vegas durante el estudio.
La tecnología de lenguaje natural permite utilizar las redes sociales para usos de lo más variado, como encontrar fuentes de intoxicación alimentaria. Investigadores de la Universidad de Rochester (Nueva York, EE.UU.) han desarrollado una aplicación que utiliza el procesamiento del lenguaje natural y la inteligencia artificial para identificar tuits relacionados con intoxicaciones alimentarias, conectarlos a los restaurantes usando geoetiquetado e identificar probables puntos conflictivos.
Según informa Dail Software, los investigadores han mostrado que es posible deducir el origen de los brotes usando el contenido público de las redes sociales y algoritmos de aprendizaje profundo entrenados para reconocer rasgos lingüísticos asociados con una enfermedad: “Siento náuseas”, por ejemplo.
En un artículo, los investigadores describen su colaboración con el departamento de salud de Las Vegas, cuyos funcionarios utilizaron la aplicación llamada nEmesis para mejorar los protocolos de inspección de la ciudad.
Normalmente, las ciudades (como Las Vegas) utilizan un sistema aleatorio para decidir qué restaurantes inspeccionar en cualquier día dado. El equipo de investigación convenció a los funcionarios de Las Vegas para reemplazar su sistema aleatorio con una lista de posibles sitios de infección derivada de sus algoritmos inteligentes.
En un experimento controlado, la mitad de las inspecciones se realizaron utilizando el enfoque al azar y la otra mitad se realizaron utilizando nEmesis, sin que los inspectores supieran de que se había cambiado el sistema.
Durante tres meses, el sistema escaneó automáticamente un promedio de 16.000 tuits de 3.600 usuarios cada día. 1.000 de los tuits estaban relacionados con un restaurante específico y de ellos, aproximadamente 12 incluían contenido que probablemente significaba una intoxicación alimentaria.
Analizando los resultados del experimento, encontraron que el sistema basado en tuits llevó a un 15 por ciento de citaciones por infracciones sanitarias respecto al total de inspecciones, en comparación con el 9 por ciento del sistema aleatorio. Algunas de las inspecciones acabaron en advertencias; otras, en cierres.
Los investigadores estiman que estas mejoras en la eficacia de las inspecciones dieron lugar a 9.000 menos incidentes de envenenamiento por alimentos y 557 menos hospitalizaciones en Las Vegas durante el estudio.
Referencia bibliográfica:
Adam Sadilek, Henry Kautz, Lauren DiPrete, Brian Labus, Eric Portman, Jack Teitel y Vincent Silenzio: Deploying nEmesis: Preventing Foodborne Illness by Data Mining Social Media.
Adam Sadilek, Henry Kautz, Lauren DiPrete, Brian Labus, Eric Portman, Jack Teitel y Vincent Silenzio: Deploying nEmesis: Preventing Foodborne Illness by Data Mining Social Media.