La interfaz desarrollada emite música de piano para regular el estado de ánimo. Foto: C.P.Storm. Fuente: Flickr.com.
Un equipo de científicos de dos universidades británicas están desarrollando una interfaz cerebro-ordenador (BCI) capaz de reconocer el estado anímico de una persona, y de reproducir una música que se ajuste a dicho estado o que lo regule.
Los investigadores, de la Universidad de Reading y de la Universidad de Plymouth, creen que este sistema podría usarse como herramienta terapéutica, en el caso de pacientes que sufren ciertas formas de depresión.
Reconocimiento del estado de ánimo
Una interfaz cerebro-computadora es un dispositivo que funciona como medio de comunicación entre las funciones mentales humanas y los ordenadores.
Nuestras funciones mentales son generadas por el cerebro mediante actividad eléctrica. Esta actividad puede ser captada y clasificada para comunicarla a un medio externo, en este caso un ordenador o un hardware.
Tal y como explica el director del proyecto, el profesor de cibernética de la Universidad de Reading, Slawomir Nasuto, en la revista The Engineer: “Cuando desempeñamos alguna función cognitiva, nuestro cerebro produce mucha actividad eléctrica que, mediante técnicas no invasivas, puede ser reconocida como fluctuaciones de potenciales eléctricos diminutos”.
“Si se pueden registrar estas fluctuaciones y reconocer que tipo de actividad están llevando a cabo, se podría establecer a partir de ellas un comando de control para los ordenadores”.
Los investigadores, de la Universidad de Reading y de la Universidad de Plymouth, creen que este sistema podría usarse como herramienta terapéutica, en el caso de pacientes que sufren ciertas formas de depresión.
Reconocimiento del estado de ánimo
Una interfaz cerebro-computadora es un dispositivo que funciona como medio de comunicación entre las funciones mentales humanas y los ordenadores.
Nuestras funciones mentales son generadas por el cerebro mediante actividad eléctrica. Esta actividad puede ser captada y clasificada para comunicarla a un medio externo, en este caso un ordenador o un hardware.
Tal y como explica el director del proyecto, el profesor de cibernética de la Universidad de Reading, Slawomir Nasuto, en la revista The Engineer: “Cuando desempeñamos alguna función cognitiva, nuestro cerebro produce mucha actividad eléctrica que, mediante técnicas no invasivas, puede ser reconocida como fluctuaciones de potenciales eléctricos diminutos”.
“Si se pueden registrar estas fluctuaciones y reconocer que tipo de actividad están llevando a cabo, se podría establecer a partir de ellas un comando de control para los ordenadores”.
Slawomir Nasuto, uno de los desarrolladores de la interfaz. Fuente: Universidad de Reading.
En las interfaces cerebro-computadora tradicionales, el usuario es el que ejerce el control completo sobre el sistema BCI, que responde a dicho control.
En el caso del sistema desarrollado por Nasuto y sus colaboradores, la situación es distinta.
“En nuestro caso, no se pregunta al usuario si está feliz o infeliz. Lo que queremos es reconocer su estado de ánimo para que el sistema le proporcione el estímulo adecuado. Por tanto, el usuario no controla el sistema. Ésta es una característica única”, explica Nasuto.
El científico añade que el proyecto aplicará la electroencefalografía o EEG (técnica de exploración neurofisiológica que registra la actividad bioeléctrica del cerebro), para transferir las señales eléctricas neuronales desde el cráneo de los pacientes a través de una serie de cables, hasta una caja amplificadora, a su vez conectada a un ordenador.
Este ordenador será el que genere su propia música sintética, basándose en el estado mental del usuario y en sus necesidades.
Aprovechar las características de la música
Otro de los científicos implicados en el proyecto, el profesor de música computacional de la Universidad de Plymouth, Eduardo Miranda, explica que: “hemos desarrollado una serie de métodos basados en reglas para generar música con los ordenadores”.
Además, “vamos a emplear un programa informático para tratar de identificar las normas que gobiernan los patrones musicales que producen ciertas emociones. Después, incorporaremos estas reglas al sistema, para que éste genere la música adecuada”, añade Miranda.
En música ya se sabe que, por ejemplo, una clave menor evoca tristeza, mientras que una clave mayor evoca felicidad. Los compositores han aprovechado estas características de los efectos de la música durante siglos.
Por otro lado, la música que genere el sistema se ajustará a los gustos de los usuarios, aunque tendrá siempre un sonido similar al de la música producida por el piano, añaden los investigadores.
Miranda y Nasuto creen que esta adaptación a los gustos personales será el principal desafío del sistema, porque la gente tiene gustos muy variados y lo que puede hacer que un individuo se aburra, a otro puede emocionarle.
Con todo, los científicos esperan que su desarrollo sirva para regular los estados de ánimo de los usuarios. El proyecto, financiado por el Engineering and Physical Sciences Research Council (EPSRC) del Reino Unido tendrá cuatro años de duración.
En el caso del sistema desarrollado por Nasuto y sus colaboradores, la situación es distinta.
“En nuestro caso, no se pregunta al usuario si está feliz o infeliz. Lo que queremos es reconocer su estado de ánimo para que el sistema le proporcione el estímulo adecuado. Por tanto, el usuario no controla el sistema. Ésta es una característica única”, explica Nasuto.
El científico añade que el proyecto aplicará la electroencefalografía o EEG (técnica de exploración neurofisiológica que registra la actividad bioeléctrica del cerebro), para transferir las señales eléctricas neuronales desde el cráneo de los pacientes a través de una serie de cables, hasta una caja amplificadora, a su vez conectada a un ordenador.
Este ordenador será el que genere su propia música sintética, basándose en el estado mental del usuario y en sus necesidades.
Aprovechar las características de la música
Otro de los científicos implicados en el proyecto, el profesor de música computacional de la Universidad de Plymouth, Eduardo Miranda, explica que: “hemos desarrollado una serie de métodos basados en reglas para generar música con los ordenadores”.
Además, “vamos a emplear un programa informático para tratar de identificar las normas que gobiernan los patrones musicales que producen ciertas emociones. Después, incorporaremos estas reglas al sistema, para que éste genere la música adecuada”, añade Miranda.
En música ya se sabe que, por ejemplo, una clave menor evoca tristeza, mientras que una clave mayor evoca felicidad. Los compositores han aprovechado estas características de los efectos de la música durante siglos.
Por otro lado, la música que genere el sistema se ajustará a los gustos de los usuarios, aunque tendrá siempre un sonido similar al de la música producida por el piano, añaden los investigadores.
Miranda y Nasuto creen que esta adaptación a los gustos personales será el principal desafío del sistema, porque la gente tiene gustos muy variados y lo que puede hacer que un individuo se aburra, a otro puede emocionarle.
Con todo, los científicos esperan que su desarrollo sirva para regular los estados de ánimo de los usuarios. El proyecto, financiado por el Engineering and Physical Sciences Research Council (EPSRC) del Reino Unido tendrá cuatro años de duración.