El cerebro registra los patrones temporales del sonido con dos tipos de codificación

Investigadores británicos analizan las características de un proceso que se desarrolla en nuestra corteza auditiva


Investigadores británicos han analizado cómo registra el cerebro los patrones temporales dentro de un sonido, en la corteza auditiva. Para ello utiliza dos tipos de codificación: o bien el número promedio de picos de actividad neuronal por unidad de tiempo, o bien a través de la separación temporal entre ellos.


PLOS/T21
17/04/2015

El cerebro codifica patrones temporales dentro de un sonido, como el ritmo de una melodía. Imagen: Daniel Bendor. Fuente: Imperial College de Londres.
¿Cómo representa nuestro sistema auditivo el tiempo dentro de un sonido?

Un estudio del University College de Londres ha analizado cómo puede representar los patrones acústicos temporales la actividad neuronal de la corteza auditiva del cerebro.

En cierto modo, es equivalente a la alternacia entre el freno y del acelerador en un coche: cómo se combinan también aporta información.

Trabajos anteriores han demostrado que tanto la tasa de disparo de las neuronas (el número promedio de picos por unidad de tiempo, o tasa de codificación) como la cadencia de sus respuestas a estímulos (el tiempo preciso de cada pico, o codificación temporal) pueden ser utilizado por las neuronas corticales auditivas para representar la información temporal. La corteza auditiva es un importante centro de distribución del cerebro para la percepción del sonido.

En el estudio, publicado en PLOS Computational Biology, se investigaron los mecanismos subyacentes de estas dos representaciones neuronales utilizando un modelo computacional de una neurona cortical.

Resultados obtenidos

Se encontró que la cadencia y la magnitud de la inhibición determinaban si las neuronas respondían a un estímulo acústico utilizando una tasa de codificación o una codificación temporal.

El modelo de los investigadores predijo varias diferencias en el patrón de respuesta de las neuronas según utilizaran cada uno de los dos tipos de codificación, que luego fueron validadas con datos electrofisiológicos registrados a partir de la corteza auditiva de los primates no humanos.

La comprensión de cómo el cerebro genera estos códigos neuronales puede conducir al desarrollo de prótesis neurales de última generación que imiten mejor los patrones de codificación neural normalmente utilizados por el cerebro.

Referencia bibliográfica:

Daniel Bendor: The Role of Inhibition in a Computational Model of an Auditory Cortical Neuron during the Encoding of Temporal Information. PLoS Computational Biology (2015). DOI: 10.1371/journal.pcbi.1004197.



PLOS/T21
Artículo leído 3413 veces



Más contenidos