Metaleros, amantes del jazz y folkies podían tener más en común musicalmente de lo que cabría imaginarse. Un nuevo estudio realizado por investigadores del Real Instituto de Tecnología de Suecia (KTH) arroja luz sobre elementos comunes de la percepción de la música por parte de los seres humanos.
¿Qué es lo que realmente oímos cuando escuchamos música? Los científicos intentaron hallar una respuesta reduciendo nuestra percepción de la música a nueve elementos básicos, que han denominado "características perceptivas". Sus resultados podrían ayudar a mejorar los modelos computacionales que utiliza la industria musical para la predicción de los gustos individuales de los oyentes.
Estos modelos, llamados modelos de Recuperación de Información Musical (MIR) combinan mediciones de procesamiento de señales de audio con el análisis de elementos musicales tomados de conceptos de la teoría musical y de la percepción de la música, como la fuerza del ritmo, la regularidad rítmica, la métrica o el modo. Los modelos también incluyen análisis del género musical (por ejemplo, punk, pop, clásica), del tono emocional de la música (triste, feliz, tierna), y otras cualidades contextuales.
Pero una gran limitación surge al analizar otro elemento: hasta qué punto la música es percibida de forma consistente por oyentes de diferentes orígenes y familiarizados con distintos tipos de música, por no hablar de los sesgos y referencias culturales individuales, que también influyen en la percepción musical.
La dependencia de la teoría de la música podría ser una de las debilidades de los programas MIR para capturar cualquier similitud en la percepción. No todo el mundo entiende de música, sin embargo, todo el mundo sabe lo que le gusta de la música. Entonces, ¿cuál es la base sobre la que se forman estas preferencias?
¿Qué es lo que realmente oímos cuando escuchamos música? Los científicos intentaron hallar una respuesta reduciendo nuestra percepción de la música a nueve elementos básicos, que han denominado "características perceptivas". Sus resultados podrían ayudar a mejorar los modelos computacionales que utiliza la industria musical para la predicción de los gustos individuales de los oyentes.
Estos modelos, llamados modelos de Recuperación de Información Musical (MIR) combinan mediciones de procesamiento de señales de audio con el análisis de elementos musicales tomados de conceptos de la teoría musical y de la percepción de la música, como la fuerza del ritmo, la regularidad rítmica, la métrica o el modo. Los modelos también incluyen análisis del género musical (por ejemplo, punk, pop, clásica), del tono emocional de la música (triste, feliz, tierna), y otras cualidades contextuales.
Pero una gran limitación surge al analizar otro elemento: hasta qué punto la música es percibida de forma consistente por oyentes de diferentes orígenes y familiarizados con distintos tipos de música, por no hablar de los sesgos y referencias culturales individuales, que también influyen en la percepción musical.
La dependencia de la teoría de la música podría ser una de las debilidades de los programas MIR para capturar cualquier similitud en la percepción. No todo el mundo entiende de música, sin embargo, todo el mundo sabe lo que le gusta de la música. Entonces, ¿cuál es la base sobre la que se forman estas preferencias?
Nivel de análisis musical intermedio
Los investigadores del KTH Anders Friberg, Anton Hedblad, Marco Fabiani y Anders Elowsson partieron del siguiente argumento: El cerebro humano cuenta con un "nivel de análisis musical intermedio", merced al cual las características más básicas de la música son percibidas por cualquier persona, de forma natural.
Así, aunque lograr que un grupo de individuos se ponga de acuerdo sobre cualquier cosa que tenga que ver con la música no sea tarea fácil, al centrarse en nueve características clave de la música, el equipo consiguió encontrar algunos puntos en común en la percepción musical que podrían resultar muy útiles.
Los científicos llevaron a cabo un experimento en el que 20 personas escucharon 100 tonos y 110 fragmentos de música de cine. Después, todas ellas calificaron lo que habían escuchado, dentro de estas nueve "características perceptuales" musicales básicas: velocidad (música lenta o rápida), claridad rítmica (pulso firme o que fluye), complejidad rítmica (patrones rítmicos simples o más complejos); articulación (la duración de los tonos, staccato o legato); dinámica (esfuerzo estimado de los intérpretes); modalidad (tono mayor o menor); tono general (altura total); complejidad armónica (progresión de armónicos) y brillo (música oscura o clara).
Friberg explica en un comunicado del KTH que estas nueve características perceptivas reflejan cómo los no músicos tratan de entender lo que están escuchando. Por ejemplo, en lugar de califcar el tempo (cantidad de notas en una medida de tiempo dado) los participantes optaron por utilizar un concepto menos complicado, el de velocidad, relacionándolo con el movimiento.
El objetivo del experimento era determinar si las calificaciones de los voluntarios coincidían unas con otras de manera significativa. Según Friberg, en su mayor parte, las nueve características generaron común acuerdo entre los participantes. "Las nueve características perceptivas funcionaron, independientemente de las referencias y características culturales de los sujetos de prueba"
El investigador señala que, aunque el estudio no es de ninguna manera la última palabra sobre el procesamiento de la información musical, sí ofrece una vía hacia una mejor comprensión de la percepción humana, lo que podría dar lugar a mejores y más simples modelos computacionales.
Los investigadores del KTH Anders Friberg, Anton Hedblad, Marco Fabiani y Anders Elowsson partieron del siguiente argumento: El cerebro humano cuenta con un "nivel de análisis musical intermedio", merced al cual las características más básicas de la música son percibidas por cualquier persona, de forma natural.
Así, aunque lograr que un grupo de individuos se ponga de acuerdo sobre cualquier cosa que tenga que ver con la música no sea tarea fácil, al centrarse en nueve características clave de la música, el equipo consiguió encontrar algunos puntos en común en la percepción musical que podrían resultar muy útiles.
Los científicos llevaron a cabo un experimento en el que 20 personas escucharon 100 tonos y 110 fragmentos de música de cine. Después, todas ellas calificaron lo que habían escuchado, dentro de estas nueve "características perceptuales" musicales básicas: velocidad (música lenta o rápida), claridad rítmica (pulso firme o que fluye), complejidad rítmica (patrones rítmicos simples o más complejos); articulación (la duración de los tonos, staccato o legato); dinámica (esfuerzo estimado de los intérpretes); modalidad (tono mayor o menor); tono general (altura total); complejidad armónica (progresión de armónicos) y brillo (música oscura o clara).
Friberg explica en un comunicado del KTH que estas nueve características perceptivas reflejan cómo los no músicos tratan de entender lo que están escuchando. Por ejemplo, en lugar de califcar el tempo (cantidad de notas en una medida de tiempo dado) los participantes optaron por utilizar un concepto menos complicado, el de velocidad, relacionándolo con el movimiento.
El objetivo del experimento era determinar si las calificaciones de los voluntarios coincidían unas con otras de manera significativa. Según Friberg, en su mayor parte, las nueve características generaron común acuerdo entre los participantes. "Las nueve características perceptivas funcionaron, independientemente de las referencias y características culturales de los sujetos de prueba"
El investigador señala que, aunque el estudio no es de ninguna manera la última palabra sobre el procesamiento de la información musical, sí ofrece una vía hacia una mejor comprensión de la percepción humana, lo que podría dar lugar a mejores y más simples modelos computacionales.
Referencia bibliográfica:
Anders Friberg, Erwin Schoonderwaldt, Anton Hedblad, Marco Fabiani y Anders Elowsson. Using listener-based perceptual features as intermediate representations in music information retrieval. J. Acoust. Soc. Am. (2014). DOI: 10.1121/1.4892767.
Anders Friberg, Erwin Schoonderwaldt, Anton Hedblad, Marco Fabiani y Anders Elowsson. Using listener-based perceptual features as intermediate representations in music information retrieval. J. Acoust. Soc. Am. (2014). DOI: 10.1121/1.4892767.