Tendencias 21
   




Crean un sistema computacional que aprende sentimientos leyendo los labios

Gracias a un algoritmo que se perfecciona en cada repetición, es capaz de interpretar seis emociones distintas


Un equipo de investigadores malasios ha creado un sistema computacional capaz de aprender a distinguir las emociones humanas, a partir de las expresiones de los labios. Para ello, el sistema cuenta con un algoritmo que “entiende” cada vez mejor los sentimientos, a medida que va atribuyendo ecuaciones a diversos gestos. En pruebas realizadas se demostró la eficiencia del sistema, que podría usarse para facilitar el uso de los ordenadores a personas discapacitadas. Por Yaiza Martínez.


13/09/2012

Fuente: Wikimedia Commons.
Fuente: Wikimedia Commons.
Un equipo de investigadores de la Universidad Manipal International de Selangor, en Malasia, está enseñando a un ordenador a interpretar emociones humanas a partir de patrones de formas y posturas de los labios.

Este sistema podría mejorar nuestra forma de interactuar con los ordenadores, y quizá permitir a personas discapacitadas el uso de dispositivos de comunicación basados en computadoras, como sintetizadores de voz, de manera más eficiente.

Entrenamiento emocional

El intérprete artificial de emociones utiliza un algoritmo genético que mejora progresivamente, a medida que va relacionando ecuaciones con las formas que adquiere la boca humana, al expresar diversas emociones.

Para empezar, los investigadores, dirigidos por Karthigayan Muthukaruppan, “entrenaron” al sistema con fotos de individuos del sudeste asiático y de Japón cuyos rostros expresaban diferentes emociones.

A través de estas imágenes, el ordenador aprendió a reconocer las seis emociones humanas más comunes: la felicidad, la tristeza, el miedo, la ira, el asco y la sorpresa, así como una expresión neutra, publica Eurekalert.

En este proceso, el algoritmo incorporado analizó el labio superior y el inferior de cada persona fotografiada por separado, como si ambos fueran elipses aisladas una de otra.

Una vez terminado el entrenamiento, en pruebas realizadas, se demostró la capacidad del sistema para reconocer las seis emociones, así como la expresión neutra mostradas en el entrenamiento.

Creciente interés

Según explican los investigadores: “En los últimos años, ha habido cada vez más interés por mejorar todos los aspectos de la interacción entre humanos y ordenadores, especialmente en el área del reconocimiento de las emociones humanas a través de la observación facial”.

En este terreno, encontramos la investigación llevada a cabo por un científico de la Universidad estadounidense de Binghamton en 2011, en cuyo marco se creó una tecnología que proporcionaba información a la computadora sobre dónde está mirando el usuario, cuáles son sus gestos o su discurso.

Esta información estaba constituida por señales visuales traducibles a órdenes para el ordenador. Con ella, se podría desarrollar una manera más cómoda, intuitiva e inteligente de usar la computadora.

Por otra parte, en 2008, informáticos de las universidades de Toronto y Ryerson idearon un sistema que permitía a los ordenadores reconocer también seis emociones humanas diferentes: alegría, tristeza, rabia, miedo, sorpresa y disgusto.

Según sus creadores, este sistema era capaz de hacer estas distinciones, independientemente de la cultura o la lengua de cada persona, con un porcentaje de aciertos del 82%.

Por qué los labios

En el caso de la investigación de los científicos malasios, estos escogieron los labios como fuente de información de las emociones por una razón específica.

Según publica Physorg, es bien sabido que muchas emociones profundas implican más de un movimiento facial.

Una sonrisa sincera, por ejemplo, además del estiramiento de los labios, conlleva flexionar los músculos que rodean los ojos y provoca movimientos en las cejas.

Todas estas acciones resultan importantes para la interpretación inconsciente de los sentimientos de otros, pero los labios son una parte crucial en la expresión de las emociones y, por tanto, en su detección, señalan los científicos.

Los resultados de la presente investigación han aparecido detallados en la revista especializada International Journal of Artificial Intelligence and Soft Computing.

Referencia bibliográfica:

M. Karthigayan, R. Nagarajan, M. Rizon, Sazali Yaacob, Lip pattern in the interpretation of human emotions. International Journal of Artificial Intelligence and Soft Computing, 2012, DOI: 10.1504/IJAISC.2012.049004.



Artículo leído 5100 veces






1.Publicado por Toni el 17/09/2012 21:50
Lectura de labios, detección de sonrisas falsas... esto empieza a dar un poco de miedo, llegará el día en que juntando todo esto prácticamente se pueda leer el pensamiento?

Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.