Un equipo de investigadores de la Johns Hopkins University de Estados Unidos ha descubierto los patrones de la actividad cerebral que podrían subyacer a nuestra capacidad de ver y comprender la estructura tridimensional de los objetos.
Esta habilidad que nosotros poseemos y de la que nos aprovechamos sin darnos cuenta es tan sofisticada, que ni siquiera los más avanzados sistemas de visión computerizada serían capaces jamás de emularla, utilizando cámaras bidimensionales.
Pero, ¿cómo lo hacemos? Según explica la Johns Hopkins University en un comunicado, la investigación realizada sugiere que regiones visuales de alto nivel del cerebro representarían los objetos como configuraciones espaciales formadas por los fragmentos de sus superficies, es decir, que los representarían por partes.
Proceso en mosaico
Así, las neuronas individuales estarían ajustadas para responder a las subestructuras de los fragmentos de las superficies que nuestras retinas perciben. Por ejemplo, un neurona del estudio respondió a la combinación de una protuberancia saliente hacia delante cercana a la parte delantera de un objeto, y a un ahuecamiento ascendente cercano a la parte superior de dicho objeto.
Múltiples neuronas de sensibilidades diversas podrían combinarse como un mosaico tridimensional para decodificar la superficie entera de cualquier cosa que veamos.
Según explicó el director de la investigación, el científico Charles E. Connor, el ser humano es muy consciente de la estructura de los objetos, y esto podría deberse a la brillante representación estructural de la que es capaz nuestro cerebro. Connor es profesor del Zanvyl Krieger Mind-Brain Institute de la Johns Hopkins.
Estudio computacional
En el estudio, Connor y su colaborador, Yukako Yamane, entrenaron a macacos de la India para que mirasen a la pantalla de un ordenador mientras en ésta aparecían imágenes intermitentes de objetos en tres dimensiones.
Al mismo tiempo, se registraron las respuestas eléctricas de las neuronas individulaes de las regiones visuales de alto-nivel del cerebro de los animales. Un algoritmo informático se usó para guiar gradualmente el experimento hacia las formas de objetos que daban lugar a respuestas neuronales más intensas.
Con esta estrategia de seguimiento de evolución de los estímulos, que se combinó con modelos de respuesta lineal/no lineal, los científicos pudieron precisar qué forma tridimensional concreta producía una respuesta también en una célula determinada.
Tal y como explican los autores del estudio en un artículo aparecido en Nature, investigaciones previas de la codificación neuronal para formas complejas se habían centrado en el patrón de las representaciones bidimensionales, dando lugar a un modelo primario de visión de los objetos. Pero la representación de formas tridimensionales requiere de una decodificación más compleja, posible gracias a la computación avanzada.
Esta habilidad que nosotros poseemos y de la que nos aprovechamos sin darnos cuenta es tan sofisticada, que ni siquiera los más avanzados sistemas de visión computerizada serían capaces jamás de emularla, utilizando cámaras bidimensionales.
Pero, ¿cómo lo hacemos? Según explica la Johns Hopkins University en un comunicado, la investigación realizada sugiere que regiones visuales de alto nivel del cerebro representarían los objetos como configuraciones espaciales formadas por los fragmentos de sus superficies, es decir, que los representarían por partes.
Proceso en mosaico
Así, las neuronas individuales estarían ajustadas para responder a las subestructuras de los fragmentos de las superficies que nuestras retinas perciben. Por ejemplo, un neurona del estudio respondió a la combinación de una protuberancia saliente hacia delante cercana a la parte delantera de un objeto, y a un ahuecamiento ascendente cercano a la parte superior de dicho objeto.
Múltiples neuronas de sensibilidades diversas podrían combinarse como un mosaico tridimensional para decodificar la superficie entera de cualquier cosa que veamos.
Según explicó el director de la investigación, el científico Charles E. Connor, el ser humano es muy consciente de la estructura de los objetos, y esto podría deberse a la brillante representación estructural de la que es capaz nuestro cerebro. Connor es profesor del Zanvyl Krieger Mind-Brain Institute de la Johns Hopkins.
Estudio computacional
En el estudio, Connor y su colaborador, Yukako Yamane, entrenaron a macacos de la India para que mirasen a la pantalla de un ordenador mientras en ésta aparecían imágenes intermitentes de objetos en tres dimensiones.
Al mismo tiempo, se registraron las respuestas eléctricas de las neuronas individulaes de las regiones visuales de alto-nivel del cerebro de los animales. Un algoritmo informático se usó para guiar gradualmente el experimento hacia las formas de objetos que daban lugar a respuestas neuronales más intensas.
Con esta estrategia de seguimiento de evolución de los estímulos, que se combinó con modelos de respuesta lineal/no lineal, los científicos pudieron precisar qué forma tridimensional concreta producía una respuesta también en una célula determinada.
Tal y como explican los autores del estudio en un artículo aparecido en Nature, investigaciones previas de la codificación neuronal para formas complejas se habían centrado en el patrón de las representaciones bidimensionales, dando lugar a un modelo primario de visión de los objetos. Pero la representación de formas tridimensionales requiere de una decodificación más compleja, posible gracias a la computación avanzada.
Charles E. Connor. Fuente: John Hopkins University.
Aplicaciones
Con este método, los científicos pudieron caracterizar las respuestas de una región del cerebro de los macacos, la corteza inferotemporal, a las formas tridimensionales.
Esta región del cerebro resulta esencial para el procesamiento de la información visual, y decisiva en lo que respecta a la formación de nuestra memoria visual. La corteza inferotemporal identifica y clasifica en categorías los objetos, para acto seguido mandar esa información a otras regiones del cerebro.
Este logro de los investigadores, unido a otros logros científicos anteriores, tendría implicaciones para el tratamiento de individuos que sufran desórdenes de la percepción, así como para el desarrollo de la visión artificial de los ordenadores.
Connor cree asimismo que comprender los códigos neuronales de la vista podría ayudar a explicar ciertas características de la experiencia visual, como la percepción de la belleza y de su contrario, la fealdad. Según el investigador, sería interesante que los artistas conocieran qué formas y que colores evocan determinadas respuestas en el cerebro.
Así, podrían saber el efecto que tendrán sus creaciones, e incluso desarrollar nuevas técnicas de presentación (de iluminación, colorido y disposición) que realzarían la experiencia estética.
Esta cuestión neuroestética podría resolverse en un proyecto futuro, desarrollado por Connor en colaboración con el Walter Art Museum de Baltimore. En él se estudiaran las respuestas humanas a las esculturas con el mismo algoritmo aplicado en el presente estudio.
Antecedentes
Ya en 2005 hablamos en Tendencias21 de un estudio realizado por el Instituto Tecnológico de Massachussets, también con macacos, que desveló una parte del código de funcionamiento que siguen las neuronas durante la acción de “ver”.
También entonces se empleó un algoritmo informático que permitió describir los patrones de estos procesos, que en realidad se desarrollan en tan sólo unas milésimas de segundo. Los resultados de esta investigación fueron publicados en Science.
Además de las aplicaciones antes mencionadas, conocer a fondo los códigos de la visión tridimensional podría servir en el futuro para crear, por ejemplo, visiones irreales a la carta, que nuestro cerebro interpretaría como verdaderas.
Con este método, los científicos pudieron caracterizar las respuestas de una región del cerebro de los macacos, la corteza inferotemporal, a las formas tridimensionales.
Esta región del cerebro resulta esencial para el procesamiento de la información visual, y decisiva en lo que respecta a la formación de nuestra memoria visual. La corteza inferotemporal identifica y clasifica en categorías los objetos, para acto seguido mandar esa información a otras regiones del cerebro.
Este logro de los investigadores, unido a otros logros científicos anteriores, tendría implicaciones para el tratamiento de individuos que sufran desórdenes de la percepción, así como para el desarrollo de la visión artificial de los ordenadores.
Connor cree asimismo que comprender los códigos neuronales de la vista podría ayudar a explicar ciertas características de la experiencia visual, como la percepción de la belleza y de su contrario, la fealdad. Según el investigador, sería interesante que los artistas conocieran qué formas y que colores evocan determinadas respuestas en el cerebro.
Así, podrían saber el efecto que tendrán sus creaciones, e incluso desarrollar nuevas técnicas de presentación (de iluminación, colorido y disposición) que realzarían la experiencia estética.
Esta cuestión neuroestética podría resolverse en un proyecto futuro, desarrollado por Connor en colaboración con el Walter Art Museum de Baltimore. En él se estudiaran las respuestas humanas a las esculturas con el mismo algoritmo aplicado en el presente estudio.
Antecedentes
Ya en 2005 hablamos en Tendencias21 de un estudio realizado por el Instituto Tecnológico de Massachussets, también con macacos, que desveló una parte del código de funcionamiento que siguen las neuronas durante la acción de “ver”.
También entonces se empleó un algoritmo informático que permitió describir los patrones de estos procesos, que en realidad se desarrollan en tan sólo unas milésimas de segundo. Los resultados de esta investigación fueron publicados en Science.
Además de las aplicaciones antes mencionadas, conocer a fondo los códigos de la visión tridimensional podría servir en el futuro para crear, por ejemplo, visiones irreales a la carta, que nuestro cerebro interpretaría como verdaderas.