Imagen: Neon Sign, Stock.xchng.
Es bien sabido que la música provoca emociones. Pero, ¿por qué algunas piezas e interpretaciones musicales nos conmueven, mientras otras nos dejan indiferentes? ¿Por qué los músicos deben pasar años perfeccionando la interpretación de los sutiles matices que pueden hacernos llorar?
Un equipo de científicos de la Florida Atlantic University (FAU), de Estados Unidos, ha conseguido ahora identificar los aspectos musicales clave capaces de causar emociones relacionadas con nuestra actividad cerebral.
Además, según publica la FAU en un comunicado, los investigadores han mostrado por vez primera los efectos de los matices de la interpretación musical en el cerebro, a tiempo real.
Expresiva y mecánica
Edward Large y Heather Chapin, principales autores de la investigación, creen que los resultados obtenidos permiten explicar cómo las interpretaciones musicales activan los centros emocionales del cerebro.
Asimismo, afirman que la técnica empleada en su estudio propiciará la aparición de nuevas formas de análisis de las respuestas a la música y a otros estímulos emocionales.
Para la investigación, los investigadores registraron en primer lugar la interpretación musical de una pieza de Frédéric Chopin, realizada por un experto, en un piano computerizado (interpretación “expresiva”).
Después, los científicos sintetizaron una versión de esta misma pieza usando un ordenador, sin incluir en esta segunda versión los matices de la interpretación humana (interpretación “mecánica”).
Las dos versiones de la pieza de Chopin utilizada presentaban los mismos elementos musicales: melodía, armonía, ritmo, tempo y sonoridad, pero sólo la “interpretación expresiva” incluía las variaciones que los pianistas aplican para evocar respuestas emocionales en los oyentes.
Estudio en tres fases
Large y Chapin presentaron posteriormente estas dos versiones a un grupo de voluntarios con alguna afinidad con la música.
Mientras éstos escuchaban la pieza en ambas versiones, los investigadores analizaron su comportamiento y registraron imágenes de su actividad cerebral. Para ello, utilizaron la llamada tecnología fMRI, que consiste en un escáner que detecta los cambios en el flujo sanguíneo del cerebro, relacionados con la actividad neuronal de éste.
El experimento de escucha se realizó en tres fases. En la primera, los voluntarios informaron de sus respuestas emocionales al escuchar ambas versiones, y a tiempo real, a través de un programa informático especializado.
Inmediatamente después de evaluar sus emociones, los voluntarios fueron sometidos al análisis con fMRI, mientras volvían a escuchar ambas versiones de la pieza escogida. Al terminar esta fase, se les pidió a los participantes que volvieran a evaluar sus emociones en función de cada versión.
El estudio fue realizado en tres pasos para asegurar la consistencia entre la información facilitada por los voluntarios y los resultados obtenidos con el escáner de fMRI, explican los investigadores.
Un equipo de científicos de la Florida Atlantic University (FAU), de Estados Unidos, ha conseguido ahora identificar los aspectos musicales clave capaces de causar emociones relacionadas con nuestra actividad cerebral.
Además, según publica la FAU en un comunicado, los investigadores han mostrado por vez primera los efectos de los matices de la interpretación musical en el cerebro, a tiempo real.
Expresiva y mecánica
Edward Large y Heather Chapin, principales autores de la investigación, creen que los resultados obtenidos permiten explicar cómo las interpretaciones musicales activan los centros emocionales del cerebro.
Asimismo, afirman que la técnica empleada en su estudio propiciará la aparición de nuevas formas de análisis de las respuestas a la música y a otros estímulos emocionales.
Para la investigación, los investigadores registraron en primer lugar la interpretación musical de una pieza de Frédéric Chopin, realizada por un experto, en un piano computerizado (interpretación “expresiva”).
Después, los científicos sintetizaron una versión de esta misma pieza usando un ordenador, sin incluir en esta segunda versión los matices de la interpretación humana (interpretación “mecánica”).
Las dos versiones de la pieza de Chopin utilizada presentaban los mismos elementos musicales: melodía, armonía, ritmo, tempo y sonoridad, pero sólo la “interpretación expresiva” incluía las variaciones que los pianistas aplican para evocar respuestas emocionales en los oyentes.
Estudio en tres fases
Large y Chapin presentaron posteriormente estas dos versiones a un grupo de voluntarios con alguna afinidad con la música.
Mientras éstos escuchaban la pieza en ambas versiones, los investigadores analizaron su comportamiento y registraron imágenes de su actividad cerebral. Para ello, utilizaron la llamada tecnología fMRI, que consiste en un escáner que detecta los cambios en el flujo sanguíneo del cerebro, relacionados con la actividad neuronal de éste.
El experimento de escucha se realizó en tres fases. En la primera, los voluntarios informaron de sus respuestas emocionales al escuchar ambas versiones, y a tiempo real, a través de un programa informático especializado.
Inmediatamente después de evaluar sus emociones, los voluntarios fueron sometidos al análisis con fMRI, mientras volvían a escuchar ambas versiones de la pieza escogida. Al terminar esta fase, se les pidió a los participantes que volvieran a evaluar sus emociones en función de cada versión.
El estudio fue realizado en tres pasos para asegurar la consistencia entre la información facilitada por los voluntarios y los resultados obtenidos con el escáner de fMRI, explican los investigadores.
Edward Large. Fuente: FAU.
Experiencia y placer
La tecnología fMRI sirvió como herramienta clave para el análisis de aquellas áreas del cerebro que se activan como respuesta a la música. El análisis de la actividad cerebral estableció una comparación entre las respuestas neuronales a la actuación expresiva y las respuestas neuronales a la actuación mecánica; y también entre la actividad neuronal de los oyentes con mayor experiencia musical y los menos experimentados.
Por último, el análisis permitió comparar también los cambios de tempo de la interpretación musical con las activaciones neuronales de los oyentes, a tiempo real.
Los resultados obtenidos confirmaron la siguiente hipótesis: una interpretación expresiva llevada a cabo por un virtuoso pianista provoca gratificación y emociones, vinculadas con la actividad neuronal. Además, aquellos oyentes con mayor experiencia musical presentaron una actividad incrementada en los centros de emoción y recompensa del cerebro, en comparación con el resto de los participantes.
Según explica Large: “Los voluntarios que contaban con alguna experiencia musical no eran músicos profesionales, pero habían tenido alguna experiencia interpretando música, como cantar en un coro o tocar en un grupo”.
Los datos de la fMRI obtenidos sugieren, por tanto, que en los oyentes la experiencia musical está relacionada con una activación neuronal mayor al escuchar música.
Sin embargo, señala Large, a partir de estos datos no se puede establecer si dicho incremento en la activación neuronal está causado por la experiencia musical o si es el hecho de que algunas personas tengan una predisposición neuronal mayor a sentir placer con la música, lo que hace que busquen más que otras personas el tener experiencias musicales.
Una forma de empatía
Además de estas comparaciones, los datos del escáner fMRI revelaron la actividad neuronal que provocan los matices de la interpretación musical, a tiempo real.
Estas activaciones neuronales se produjeron en las siguientes áreas del cerebro: la red motora cerebral, que se piensa sería responsable de nuestra capacidad de seguir el ritmo de la música, y el sistema de neuronas espejo.
Este sistema, que se activa cuando observamos a otros realizando cualquier acción, parece jugar un papel fundamental tanto en la comprensión como en la imitación de las acciones ajenas.
Según Large, “anteriormente, se había pensado que el sistema de neuronas espejo proporciona un mecanismo que permite a los oyentes sentir la emoción del intérprete, lo que haría de la comunicación musical una forma de empatía. Nuestros resultados respaldan esta hipótesis”.
Los científicos detallan en artículo publicado en la revista PlosOne las características y resultados de su estudio.
La tecnología fMRI sirvió como herramienta clave para el análisis de aquellas áreas del cerebro que se activan como respuesta a la música. El análisis de la actividad cerebral estableció una comparación entre las respuestas neuronales a la actuación expresiva y las respuestas neuronales a la actuación mecánica; y también entre la actividad neuronal de los oyentes con mayor experiencia musical y los menos experimentados.
Por último, el análisis permitió comparar también los cambios de tempo de la interpretación musical con las activaciones neuronales de los oyentes, a tiempo real.
Los resultados obtenidos confirmaron la siguiente hipótesis: una interpretación expresiva llevada a cabo por un virtuoso pianista provoca gratificación y emociones, vinculadas con la actividad neuronal. Además, aquellos oyentes con mayor experiencia musical presentaron una actividad incrementada en los centros de emoción y recompensa del cerebro, en comparación con el resto de los participantes.
Según explica Large: “Los voluntarios que contaban con alguna experiencia musical no eran músicos profesionales, pero habían tenido alguna experiencia interpretando música, como cantar en un coro o tocar en un grupo”.
Los datos de la fMRI obtenidos sugieren, por tanto, que en los oyentes la experiencia musical está relacionada con una activación neuronal mayor al escuchar música.
Sin embargo, señala Large, a partir de estos datos no se puede establecer si dicho incremento en la activación neuronal está causado por la experiencia musical o si es el hecho de que algunas personas tengan una predisposición neuronal mayor a sentir placer con la música, lo que hace que busquen más que otras personas el tener experiencias musicales.
Una forma de empatía
Además de estas comparaciones, los datos del escáner fMRI revelaron la actividad neuronal que provocan los matices de la interpretación musical, a tiempo real.
Estas activaciones neuronales se produjeron en las siguientes áreas del cerebro: la red motora cerebral, que se piensa sería responsable de nuestra capacidad de seguir el ritmo de la música, y el sistema de neuronas espejo.
Este sistema, que se activa cuando observamos a otros realizando cualquier acción, parece jugar un papel fundamental tanto en la comprensión como en la imitación de las acciones ajenas.
Según Large, “anteriormente, se había pensado que el sistema de neuronas espejo proporciona un mecanismo que permite a los oyentes sentir la emoción del intérprete, lo que haría de la comunicación musical una forma de empatía. Nuestros resultados respaldan esta hipótesis”.
Los científicos detallan en artículo publicado en la revista PlosOne las características y resultados de su estudio.