Señal del habla y su transformación en el nervio auditivo. Crédito: Peter the Great St.Petersburg Polytechnic University.
Investigadores de la Universidad Politécnica de San Petersburgo han conseguido simular informáticamente el proceso de codificación de los sonidos sensoriales que realiza el sistema nervioso para procesar las señales acústicas.
El sistema nervioso humano procesa la información en forma de respuestas neuronales. El sistema nervioso periférico, que involucra analizadores, particularmente visuales y auditivos, proporciona la percepción del entorno externo.
Esos analizadores son los responsables de la transformación inicial de los estímulos externos en el flujo de actividad neuronal, mientras que los nervios periféricos aseguran que este flujo alcance los niveles más altos del sistema nervioso central.
Gracias a los analizadores del sistema nervioso, una persona puede identificar la voz de un orador en un entorno extremadamente ruidoso. Replicar este sistema natural de identificación de sonidos de forma artificial es una tarea ardua, por lo que los sistemas de procesamiento de voz existentes en la actualidad no son lo suficientemente efectivos y requieren recursos computacionales poderosos, señalan los investigadores.
Anton Yakovenko, líder del proyecto, explica en un comunicado que su desarrollo supera estas limitaciones: lo que han conseguido es un modelo de nervio auditivo que tiene una audición similar a la humana, con el mismo nivel de percepción de señales acústicas en un entorno de la vida real que posee el nervio auditivo humano.
Según Yakovenko, "Los algoritmos para procesar y analizar grandes datos implementados dentro del marco de investigación son universales y pueden implementarse para resolver las tareas que no están relacionadas con el procesamiento de señales acústicas", añade Anton Yakovenko, señalando que uno de los métodos propuestos se aplicó con éxito para la detección de anomalías de comportamiento de una red.
El sistema nervioso humano procesa la información en forma de respuestas neuronales. El sistema nervioso periférico, que involucra analizadores, particularmente visuales y auditivos, proporciona la percepción del entorno externo.
Esos analizadores son los responsables de la transformación inicial de los estímulos externos en el flujo de actividad neuronal, mientras que los nervios periféricos aseguran que este flujo alcance los niveles más altos del sistema nervioso central.
Gracias a los analizadores del sistema nervioso, una persona puede identificar la voz de un orador en un entorno extremadamente ruidoso. Replicar este sistema natural de identificación de sonidos de forma artificial es una tarea ardua, por lo que los sistemas de procesamiento de voz existentes en la actualidad no son lo suficientemente efectivos y requieren recursos computacionales poderosos, señalan los investigadores.
Anton Yakovenko, líder del proyecto, explica en un comunicado que su desarrollo supera estas limitaciones: lo que han conseguido es un modelo de nervio auditivo que tiene una audición similar a la humana, con el mismo nivel de percepción de señales acústicas en un entorno de la vida real que posee el nervio auditivo humano.
Según Yakovenko, "Los algoritmos para procesar y analizar grandes datos implementados dentro del marco de investigación son universales y pueden implementarse para resolver las tareas que no están relacionadas con el procesamiento de señales acústicas", añade Anton Yakovenko, señalando que uno de los métodos propuestos se aplicó con éxito para la detección de anomalías de comportamiento de una red.
Algoritmo especial
El procesamiento de los datos del sistema nervioso auditivo se llevó a cabo mediante un algoritmo especial que realizó un análisis estructural para identificar los patrones de actividad neuronal que usa el sistema nervioso para reconocer cada fonema (articulación mínima de un sonido vocálico y consonántico).
El algoritmo combinó redes neuronales auto-organizativas y la teoría de grafos para replicar la audición humana. Las redes neuronales auto-organizadas son una categoría de redes neuronales entrenadas para producir una representación discreta del espacio a través de mapas. La teoría de grafos es una rama de las matemáticas y las ciencias de la computación que estudia las propiedades de los grafos, conjuntos de objetos unidos por enlaces que permiten representar relaciones binarias entre elementos de un conjunto.
La combinación de ambas técnicas permitió a los científicos analizar la reacción de las fibras nerviosas auditivas e identificar correctamente los fonemas vocales con una exposición significativa al ruido que superó los métodos más comunes para la parametrización de las señales acústicas.
Los investigadores creen que este estudio tiene un gran potencial para la implantación coclear (restauración quirúrgica de la audición), la separación de las fuentes de sonido, la creación de nuevos enfoques bio-inspirados para el procesamiento del habla, el reconocimiento y el análisis computacional de la escena auditiva basado en los principios de audición mecánica, así como para proporcionar una mejor interacción hombre-máquina.
El procesamiento de los datos del sistema nervioso auditivo se llevó a cabo mediante un algoritmo especial que realizó un análisis estructural para identificar los patrones de actividad neuronal que usa el sistema nervioso para reconocer cada fonema (articulación mínima de un sonido vocálico y consonántico).
El algoritmo combinó redes neuronales auto-organizativas y la teoría de grafos para replicar la audición humana. Las redes neuronales auto-organizadas son una categoría de redes neuronales entrenadas para producir una representación discreta del espacio a través de mapas. La teoría de grafos es una rama de las matemáticas y las ciencias de la computación que estudia las propiedades de los grafos, conjuntos de objetos unidos por enlaces que permiten representar relaciones binarias entre elementos de un conjunto.
La combinación de ambas técnicas permitió a los científicos analizar la reacción de las fibras nerviosas auditivas e identificar correctamente los fonemas vocales con una exposición significativa al ruido que superó los métodos más comunes para la parametrización de las señales acústicas.
Los investigadores creen que este estudio tiene un gran potencial para la implantación coclear (restauración quirúrgica de la audición), la separación de las fuentes de sonido, la creación de nuevos enfoques bio-inspirados para el procesamiento del habla, el reconocimiento y el análisis computacional de la escena auditiva basado en los principios de audición mecánica, así como para proporcionar una mejor interacción hombre-máquina.
Referencia
Semi-supervised Classifying of Modelled Auditory Nerve Patterns for Vowel Stimuli with Additive Noise. Anton Yakovenko, Eugene Sidorenko, Galina Malykhina. Advances in Neural Computation, Machine Learning, and Cognitive Research II. NEUROINFORMATICS 2018. Studies in Computational Intelligence, vol 799. Springer, Cham. DOI:https://doi.org/10.1007/978-3-030-01328-8_28
Semi-supervised Classifying of Modelled Auditory Nerve Patterns for Vowel Stimuli with Additive Noise. Anton Yakovenko, Eugene Sidorenko, Galina Malykhina. Advances in Neural Computation, Machine Learning, and Cognitive Research II. NEUROINFORMATICS 2018. Studies in Computational Intelligence, vol 799. Springer, Cham. DOI:https://doi.org/10.1007/978-3-030-01328-8_28