This browser does not support the video element.
Un equipo de investigadores de los ATR Computational Neuroscience Laboratories, de Japón, afirma haber logrado procesar y proyectar en pantalla –por vez primera en la historia- imágenes que fueron directamente “robadas” al cerebro.
Según publica la revista Physorg.com, los científicos han creado una tecnología que podría, en un futuro, hacer aparecer en pantalla cualquier imagen que las personas tengan en sus mentes, como las imágenes de los sueños, por ejemplo.
El logro ha sido explicado por los científicos en la revista especializada Neuron. Según ellos, la percepción consiste en un gran número de estados posibles.
Reconstrucción de cualquier imagen
Estudios previos con tecnología fMRI (de exploración de resonancia magnética funcional del cerebro) habían conseguido predecir estos estados perceptuales clasificando la actividad del cerebro en categorías pre-especificadas (relacionadas con dichos estados de percepción).
Sin embargo, la reconstrucción de una imagen cualquiera que se esté percibiendo visualmente representa un desafío mayor, porque resulta impracticable el especificar una actividad cerebral vinculada a cada una de las imágenes posibles.
Pero los científicos japoneses consiguieron reconstruir imágenes visuales (derivadas de la percepción visual) mediante la combinación de bases de imagen de múltiples escalas, cuyos contrastes fueron decodificados independientemente a partir de la fMRI, seleccionando automáticamente voxels relevantes y aprovechando sus patrones correlacionados (un voxel o volumetric píxel es la unidad cúbica que compone un objeto tridimensional).
Esta reconstrucción fue utilizada para identificar cualquier imagen presentada entre millones de candidatos.
Los resultados obtenidos, escriben los científicos, sugieren que éste podría ser un medio efectivo de extracción de estados preceptúales complejos a partir de la actividad cerebral.
Abriendo la mente
El grupo de investigadores, liderado por Yukiyasu Kamitani, consiguió, en definitiva, captar las señales del cerebro y reconstruir con ellas lo que las personas estaban viendo.
Según los investigadores, “ésta sería la primera vez que ha sido posible visualizar lo que la gente ve, directamente a partir de su actividad cerebral”.
Todo está “oculto” en nuestra mente: cuando miramos a un objeto, la retina de nuestros ojos reconoce su imagen y la traduce en señales eléctricas que viajan hasta la corteza visual de nuestro cerebro. Pero, ¿cómo sacarlo de ella?
Experimento con diversas formas
El Daily Yomiuri Online explica que Kamitani y su equipo lo lograron mediante el siguiente experimento: se le pidió a dos personas que mirasen 440 imágenes diferentes y quietas, una a una, en una pantalla de 100 píxeles.
Cada una de estas imágenes comprendía secciones aleatorias en gris y secciones aleatorias intermitentes.
Los investigadores midieron las diferencias sutiles en los patrones de actividad cerebral de las cortezas visuales de ambas personas con el escáner de fMRI, y después subdividieron las imágenes y volvieron a registrar los patrones de reconocimiento de cada sujeto.
Después, midieron las cortezas visuales de los participantes, mientras éstos observaban las imágenes de una palabra (“neuron”) y cinco figuras geométricas, como un cuadrado y una cruz.
Basándose en los patrones cerebrales almacenados en los registros, finalmente analizaron las actividades cerebrales mientras los individuos miraban dichas imágenes, y consiguieron reconstruir tanto las de las letras como las de las otras figuras en la pantalla del ordenador.
Antecedentes
Un antecedente muy reciente de este logro de los científicos japoneses fue el de la identificación, por parte de científicos de la Carnegie Mellon University de Estados Unidos, de pensamientos humanos relacionados con patrones cerebrales que se activan al pensar en objetos familiares.
En este caso, los investigadores combinaron el llamado “aprendizaje automático” (rama de la Inteligencia Artificial que desarrolla técnicas que permitan a los ordenadores aprender) con las técnicas de registro de imágenes del cerebro (como la fMRI), para desarrollar un método de identificación de los pensamientos y percepciones humanas de objetos familiares (en concreto, de herramientas y construcciones).
Gracias a un algoritmo informático, los científicos consiguieron saber en qué objetos pensaban las personas con un 78% de exactitud. Es decir, que el sistema permitió determinar si una persona pensaba en un martillo o en un alicate o si reflexionaba acerca de un castillo o un iglú, tal y como explicamos en Tendencias21.
El nuevo paso adelante dado por los científicos japoneses abre la posibilidad de que, en un futuro no muy lejano, todas estas tecnologías consigan conocer los sueños y otros secretos escondidos en el interior de la mente de las personas, según estos investigadores.
Según publica la revista Physorg.com, los científicos han creado una tecnología que podría, en un futuro, hacer aparecer en pantalla cualquier imagen que las personas tengan en sus mentes, como las imágenes de los sueños, por ejemplo.
El logro ha sido explicado por los científicos en la revista especializada Neuron. Según ellos, la percepción consiste en un gran número de estados posibles.
Reconstrucción de cualquier imagen
Estudios previos con tecnología fMRI (de exploración de resonancia magnética funcional del cerebro) habían conseguido predecir estos estados perceptuales clasificando la actividad del cerebro en categorías pre-especificadas (relacionadas con dichos estados de percepción).
Sin embargo, la reconstrucción de una imagen cualquiera que se esté percibiendo visualmente representa un desafío mayor, porque resulta impracticable el especificar una actividad cerebral vinculada a cada una de las imágenes posibles.
Pero los científicos japoneses consiguieron reconstruir imágenes visuales (derivadas de la percepción visual) mediante la combinación de bases de imagen de múltiples escalas, cuyos contrastes fueron decodificados independientemente a partir de la fMRI, seleccionando automáticamente voxels relevantes y aprovechando sus patrones correlacionados (un voxel o volumetric píxel es la unidad cúbica que compone un objeto tridimensional).
Esta reconstrucción fue utilizada para identificar cualquier imagen presentada entre millones de candidatos.
Los resultados obtenidos, escriben los científicos, sugieren que éste podría ser un medio efectivo de extracción de estados preceptúales complejos a partir de la actividad cerebral.
Abriendo la mente
El grupo de investigadores, liderado por Yukiyasu Kamitani, consiguió, en definitiva, captar las señales del cerebro y reconstruir con ellas lo que las personas estaban viendo.
Según los investigadores, “ésta sería la primera vez que ha sido posible visualizar lo que la gente ve, directamente a partir de su actividad cerebral”.
Todo está “oculto” en nuestra mente: cuando miramos a un objeto, la retina de nuestros ojos reconoce su imagen y la traduce en señales eléctricas que viajan hasta la corteza visual de nuestro cerebro. Pero, ¿cómo sacarlo de ella?
Experimento con diversas formas
El Daily Yomiuri Online explica que Kamitani y su equipo lo lograron mediante el siguiente experimento: se le pidió a dos personas que mirasen 440 imágenes diferentes y quietas, una a una, en una pantalla de 100 píxeles.
Cada una de estas imágenes comprendía secciones aleatorias en gris y secciones aleatorias intermitentes.
Los investigadores midieron las diferencias sutiles en los patrones de actividad cerebral de las cortezas visuales de ambas personas con el escáner de fMRI, y después subdividieron las imágenes y volvieron a registrar los patrones de reconocimiento de cada sujeto.
Después, midieron las cortezas visuales de los participantes, mientras éstos observaban las imágenes de una palabra (“neuron”) y cinco figuras geométricas, como un cuadrado y una cruz.
Basándose en los patrones cerebrales almacenados en los registros, finalmente analizaron las actividades cerebrales mientras los individuos miraban dichas imágenes, y consiguieron reconstruir tanto las de las letras como las de las otras figuras en la pantalla del ordenador.
Antecedentes
Un antecedente muy reciente de este logro de los científicos japoneses fue el de la identificación, por parte de científicos de la Carnegie Mellon University de Estados Unidos, de pensamientos humanos relacionados con patrones cerebrales que se activan al pensar en objetos familiares.
En este caso, los investigadores combinaron el llamado “aprendizaje automático” (rama de la Inteligencia Artificial que desarrolla técnicas que permitan a los ordenadores aprender) con las técnicas de registro de imágenes del cerebro (como la fMRI), para desarrollar un método de identificación de los pensamientos y percepciones humanas de objetos familiares (en concreto, de herramientas y construcciones).
Gracias a un algoritmo informático, los científicos consiguieron saber en qué objetos pensaban las personas con un 78% de exactitud. Es decir, que el sistema permitió determinar si una persona pensaba en un martillo o en un alicate o si reflexionaba acerca de un castillo o un iglú, tal y como explicamos en Tendencias21.
El nuevo paso adelante dado por los científicos japoneses abre la posibilidad de que, en un futuro no muy lejano, todas estas tecnologías consigan conocer los sueños y otros secretos escondidos en el interior de la mente de las personas, según estos investigadores.