Cuando la gente habla o canta, a menudo asiente o inclina la cabeza para reforzar los mensajes verbales. Pero, ¿cómo de eficaces son estos gestos de la cabeza en la transmisión de emociones?
Mucho, según investigadores de la Universidad McGill de Montreal (Canadá). Steven R. Livingstone y Caroline Palmer, del Departamento de Psicología de McGill, han observado que las personas juzgan con mucha precisión las emociones basándose en los movimientos de la cabeza por sí solos, incluso en ausencia de expresiones faciales o sonoras.
Este hallazgo sugiere que la información visual acerca de los estados emocionales que proporcionan los movimientos de la cabeza podrían ayudar en el desarrollo de sistemas de reconocimiento de emoción automatizados o robots de interacción humana, dicen los investigadores.
Los robots expresivos podrían realizar una variedad de funciones, en particular cuando la comunicación cara a cara es importante, como en mostradores de recepción de hoteles y como robots de atención interactiva para los ancianos.
Utilizando equipos de captura de movimiento para rastrear movimientos de la cabeza de la gente en tres dimensiones, Livingstone y Palmer grabaron a cantantes mientras hablaban o cantaban con una variedad de emociones. Luego, los investigadores presentaron estos clips de vídeo a espectadores sin ningún sonido, con las expresiones faciales de los vocalistas ocultas para que sólo sus movimientos de la cabeza fueran visibles. Se pidió entonces a los espectadores que identificaran las emociones que los vocalistas pretendían transmitir.
"Hemos encontrado que cuando la gente habla, la formas de mover la cabeza revela las emociones que están expresando. Asimismo, se encontró que las personas son muy precisas en la identificación de las emociones del hablante, con sólo ver sus movimientos de cabeza", dice Palmer, en la nota de prensa de la universidad.
Mucho, según investigadores de la Universidad McGill de Montreal (Canadá). Steven R. Livingstone y Caroline Palmer, del Departamento de Psicología de McGill, han observado que las personas juzgan con mucha precisión las emociones basándose en los movimientos de la cabeza por sí solos, incluso en ausencia de expresiones faciales o sonoras.
Este hallazgo sugiere que la información visual acerca de los estados emocionales que proporcionan los movimientos de la cabeza podrían ayudar en el desarrollo de sistemas de reconocimiento de emoción automatizados o robots de interacción humana, dicen los investigadores.
Los robots expresivos podrían realizar una variedad de funciones, en particular cuando la comunicación cara a cara es importante, como en mostradores de recepción de hoteles y como robots de atención interactiva para los ancianos.
Utilizando equipos de captura de movimiento para rastrear movimientos de la cabeza de la gente en tres dimensiones, Livingstone y Palmer grabaron a cantantes mientras hablaban o cantaban con una variedad de emociones. Luego, los investigadores presentaron estos clips de vídeo a espectadores sin ningún sonido, con las expresiones faciales de los vocalistas ocultas para que sólo sus movimientos de la cabeza fueran visibles. Se pidió entonces a los espectadores que identificaran las emociones que los vocalistas pretendían transmitir.
"Hemos encontrado que cuando la gente habla, la formas de mover la cabeza revela las emociones que están expresando. Asimismo, se encontró que las personas son muy precisas en la identificación de las emociones del hablante, con sólo ver sus movimientos de cabeza", dice Palmer, en la nota de prensa de la universidad.
La idea
"Si bien los movimientos de la cabeza para las emociones felices y tristes diferían, eran muy similares en el habla y en el canto, a pesar de las diferencias en la acústica vocal", dice Livingstone, ex becario postdoc en el laboratorio de Palmer y ahora postdoc en la Universidad McMaster (Canadá). "Aunque la investigación se basó en angloparlantes de América del Norte, el enfoque hace la posible el estudio de la comunicación emocional en contextos donde se hablan diferentes idiomas".
La idea del estudio surgió en un bar ruidoso. "Una noche en Montreal estaba en un bar con mis compañeros de laboratorio", explica Livingstone. "Era una noche animada, con una gran cantidad de personas, luces tenues y música muy fuerte. En un momento mi amigo empezó a hablar; yo sabía que estaba emocionado aunque no podía entender lo que estaba diciendo o ver su rostro con claridad. De repente me di cuenta de que era la forma de mover la cabeza la que me contaba lo que estaba tratando de decir ".
Añade Palmer: "Nuestro descubrimiento puede conducir a nuevas aplicaciones en situaciones donde el sonido no es accesible, como el reconocimiento automático de los estados emocionales en el comportamiento de las masas o en personas con problemas de audición. También tiene aplicaciones en la informática y la robótica, donde la adición de movimientos de la cabeza expresivos puede ayudar a que los robots humanoides sean más realista y accesibles".
"Si bien los movimientos de la cabeza para las emociones felices y tristes diferían, eran muy similares en el habla y en el canto, a pesar de las diferencias en la acústica vocal", dice Livingstone, ex becario postdoc en el laboratorio de Palmer y ahora postdoc en la Universidad McMaster (Canadá). "Aunque la investigación se basó en angloparlantes de América del Norte, el enfoque hace la posible el estudio de la comunicación emocional en contextos donde se hablan diferentes idiomas".
La idea del estudio surgió en un bar ruidoso. "Una noche en Montreal estaba en un bar con mis compañeros de laboratorio", explica Livingstone. "Era una noche animada, con una gran cantidad de personas, luces tenues y música muy fuerte. En un momento mi amigo empezó a hablar; yo sabía que estaba emocionado aunque no podía entender lo que estaba diciendo o ver su rostro con claridad. De repente me di cuenta de que era la forma de mover la cabeza la que me contaba lo que estaba tratando de decir ".
Añade Palmer: "Nuestro descubrimiento puede conducir a nuevas aplicaciones en situaciones donde el sonido no es accesible, como el reconocimiento automático de los estados emocionales en el comportamiento de las masas o en personas con problemas de audición. También tiene aplicaciones en la informática y la robótica, donde la adición de movimientos de la cabeza expresivos puede ayudar a que los robots humanoides sean más realista y accesibles".
Referencia bibliográfica:
Steven R. Livingstone, Caroline Palmer: Head Movements Encode Emotions During Speech and Song. Emotion (2015). DOI: 10.1037/emo0000106.
Steven R. Livingstone, Caroline Palmer: Head Movements Encode Emotions During Speech and Song. Emotion (2015). DOI: 10.1037/emo0000106.