Consiguen que un ordenador reconozca la canción que escucha una persona

En el futuro las máquinas traducirán nuestros pensamientos musicales en canciones


Una nueva investigación ha conseguido que un ordenador sea capaz de descubrir qué canción está escuchando una persona, de interpretar y reconocer los sonidos musicales que registra el cerebro cuando escucha una canción. Un nuevo avance que en el futuro permitirá a las máquinas traducir nuestros pensamientos musicales en canciones.


Redacción T21
05/02/2018

En un reciente artículo, contamos que científicos japoneses habían desarrollado una red neuronal capaz de leer lo que una persona tiene en su mente y, además, de reflejarlo en una pantalla. Esa red neuronal también interpretó y reprodujo en una pantalla  lo que una persona recordaba de las imágenes que había visto.

Ahora, un nuevo estudio llevado a cabo en el Instituto D'Or de Investigación y Educación utilizó una máquina de Resonancia Magnética (MR) para leer las mentes de los participantes y descubrir qué canción estaban escuchando. Si el anterior trabajo consiguió leer lo que una persona tiene en mente (recuerdos, imágenes), este nuevo estudio ha logrado descubrir lo que una persona está oyendo dentro de su mente.

El estudio, publicado en Scientific Reports, contribuye a la mejora de la técnica de lectura mental y abre el camino a nuevas investigaciones sobre la reconstrucción de la imaginación auditiva y el habla interna.

En el ámbito clínico, puede mejorar las interfaces cerebro-ordenador para establecer la comunicación de pacientes con síndrome de enclaustramiento, una lesión en el tallo cerebral a nivel de la protuberancia anular. Una persona con este síndrome está alerta y despierta, pero no puede moverse o comunicarse verbalmente debido a una completa parálisis de casi todos los músculos voluntarios en el cuerpo, excepto por los ojos. El nuevo estudio constituye una esperanza para estas personas.

En esta nueva investigación, seis voluntarios escucharon 40 piezas de música clásica, rock, pop, jazz y otros. Mientras se desarrollaba el experimento, la técnica de resonancia magnética iba registrando la huella que cada canción dejaba en el cerebro de los participantes, según su tonalidad, dinámica, ritmo y timbre.

A continuación recurrieron a una técnica conocida como decodificación cerebral y ofrecieron al ordenador la posibilidad de escoger entre dos opciones para identificar la canción que el voluntario estaba escuchando. La precisión alcanzada por el ordenador fue del 85%.

Traducir pensamientos en canciones

La prueba no terminó ahí. En una nueva fase del experimento, abrieron al ordenador la posibilidad de escoger entre 10 opciones para elegir la canción correcta. Con esta amplitud de posibilidades, el ordenador identificó correctamente la canción escuchada por el voluntario el 74% de las veces.

Según explican los investigadores en un comunicado, en el futuro, los estudios sobre decodificación cerebral y aprendizaje automático crearán posibilidades de comunicación independientemente de cualquier tipo de lenguaje escrito o hablado.

"Las máquinas podrán traducir nuestros pensamientos musicales en canciones", explica Sebastian Hoefle, uno de los investigadores. El estudio es el resultado de una colaboración entre investigadores brasileños y colegas de Alemania, Finlandia e India.

Hoefle añade que las investigaciones de decodificación del cerebro proporcionan alternativas para comprender el funcionamiento neuronal e interactuar con él utilizando inteligencia artificial. En el futuro, espera encontrar respuestas para preguntas como "¿Qué características musicales hacen que algunas personas amen una canción mientras que otras no? ¿Nuestro cerebro está adaptado para preferir un tipo específico de música?

Referencia

Identifying musical pieces from fMRI data using encoding and decoding models. Scientific Reports, volume 8, Article number:2266 (2018). doi:10.1038/s41598-018-20732-3



Redacción T21
Artículo leído 2937 veces



Más contenidos