Neurocientíficos del Centro Alemán de Primates han podido determinar cómo reacciona el cerebro cuando hacemos algo tan elemental como levantarnos del sofá para encender la luz de la habitación.
Con este resultado, ya será posible trascender las actuales limitaciones de los interfaces cerebro-ordenador y gestionar el hogar a través del pensamiento.
Caminar por la habitación para encender la luz implica cálculos enormemente complejos por parte del cerebro: requiere la interpretación de la escena, el control de la marcha y la planificación de los movimientos, como el del brazo hacia el interruptor de la luz.
Generalmente no nos damos cuenta de estos procesos cerebrales porque se producen sin que participe la consciencia.
El problema surge cuando tenemos una dificultad física, provocada por ejemplo por un derrame cerebral, que impide una acción tan sencilla como encender la luz de la habitación.
En ese momento surge la necesidad de dotar a personas con discapacidad de la posibilidad de resolver el problema sin moverse del asiento.
Para resolver ese problema deberemos contar con una prótesis conectada al cerebro, que necesariamente ha de ser sofisticada.
Y para fabricarla, debemos saber qué pasa en el cerebro cuando realizamos esa sencilla función. Es lo que han desentrañado los científicos alemanes.
Entorno adecuado
Para conseguirlo, lo primero que hicieron fue crear el entorno adecuado (Reach Cage) para, a través de dos monos Rhesus de laboratorio, conocer lo que pasa en el cerebro cuando nos levantamos a encender la luz.
El entorno para alcanzar este resultado también ha requerido una cierta sofisticación, porque era preciso hacer un seguimiento de la actividad cerebral mientras los monos se estaban moviendo por la habitación.
Fue algo complicado: primero, para despertar el interés de los monos, iluminaban los objetos: así conseguían atraer su atención y conseguir que fueran a tocarlos.
Luego usaron múltiples cámaras de video para observar en 3D los movimientos de los monos, con alta precisión temporal y espacial.
También se valieron de algoritmos de aprendizaje profundo, propios de la Inteligencia Artificial (IA), para modelar los movimientos de la cabeza, hombro, codo y muñeca de cada mono.
Seguimiento cerebral inalámbrico
La actividad cerebral se registró de forma inalámbrica para que los animales no estuvieran restringidos en sus movimientos en ningún momento.
De esta forma, los investigadores pudieron medir la actividad de cientos de neuronas a través de 192 electrodos situados en tres áreas sensoriales motoras corticales.
En el transcurso del experimento, los monos realizaron movimientos de alcanzar objetos y caminatas dentro de la habitación.
También tuvieron que practicar hasta conseguir una alta precisión en la interacción con los objetos, incluso cuando estaban a una mayor distancia.
Con este resultado, ya será posible trascender las actuales limitaciones de los interfaces cerebro-ordenador y gestionar el hogar a través del pensamiento.
Caminar por la habitación para encender la luz implica cálculos enormemente complejos por parte del cerebro: requiere la interpretación de la escena, el control de la marcha y la planificación de los movimientos, como el del brazo hacia el interruptor de la luz.
Generalmente no nos damos cuenta de estos procesos cerebrales porque se producen sin que participe la consciencia.
El problema surge cuando tenemos una dificultad física, provocada por ejemplo por un derrame cerebral, que impide una acción tan sencilla como encender la luz de la habitación.
En ese momento surge la necesidad de dotar a personas con discapacidad de la posibilidad de resolver el problema sin moverse del asiento.
Para resolver ese problema deberemos contar con una prótesis conectada al cerebro, que necesariamente ha de ser sofisticada.
Y para fabricarla, debemos saber qué pasa en el cerebro cuando realizamos esa sencilla función. Es lo que han desentrañado los científicos alemanes.
Entorno adecuado
Para conseguirlo, lo primero que hicieron fue crear el entorno adecuado (Reach Cage) para, a través de dos monos Rhesus de laboratorio, conocer lo que pasa en el cerebro cuando nos levantamos a encender la luz.
El entorno para alcanzar este resultado también ha requerido una cierta sofisticación, porque era preciso hacer un seguimiento de la actividad cerebral mientras los monos se estaban moviendo por la habitación.
Fue algo complicado: primero, para despertar el interés de los monos, iluminaban los objetos: así conseguían atraer su atención y conseguir que fueran a tocarlos.
Luego usaron múltiples cámaras de video para observar en 3D los movimientos de los monos, con alta precisión temporal y espacial.
También se valieron de algoritmos de aprendizaje profundo, propios de la Inteligencia Artificial (IA), para modelar los movimientos de la cabeza, hombro, codo y muñeca de cada mono.
Seguimiento cerebral inalámbrico
La actividad cerebral se registró de forma inalámbrica para que los animales no estuvieran restringidos en sus movimientos en ningún momento.
De esta forma, los investigadores pudieron medir la actividad de cientos de neuronas a través de 192 electrodos situados en tres áreas sensoriales motoras corticales.
En el transcurso del experimento, los monos realizaron movimientos de alcanzar objetos y caminatas dentro de la habitación.
También tuvieron que practicar hasta conseguir una alta precisión en la interacción con los objetos, incluso cuando estaban a una mayor distancia.
Un mono Rhesus (Macaca mulatta) del experimento, aprendiendo a tocar objetivos que se distribuyen en la entorno controlado. Foto: Michael Berger.
Mismas áreas cerebrales
Los primeros resultados de este experimento muestran que los objetivos de movimiento distantes, hacia los cuales los animales tenían que caminar, están codificados en las mismas áreas del cerebro que registran los objetivos cercanos, incluso antes de que el animal comience a caminar.
Esto significa que los objetivos de movimiento, ya sean para ir lejos o cerca dentro de la habitación, se pueden obtener de las mismas áreas del cerebro, sin importar si el objetivo requiere caminar o no.
Este descubrimiento podría aprovecharse para desarrollar interfaces cerebro-ordenador que controlen hogares inteligentes, señalan los investigadores.
De hecho, esta investigación forma parte de "Plan4Act", un proyecto financiado por la UE para desarrollar interfaces cerebro-ordenador destinados a hogares inteligentes, y en el que participa España a través de la Universidad Politécnica de Madrid.
El resultado obtenido es importante porque hasta ahora los interfaces cerebro-ordenador se han centrado en planificar movimientos controlados de manos y brazos para conseguir objetivos cercanos al usuario.
El nuevo descubrimiento permitirá trascender esta limitación y controlar el hogar solo con el pensamiento, aunque no será mañana.
Los primeros resultados de este experimento muestran que los objetivos de movimiento distantes, hacia los cuales los animales tenían que caminar, están codificados en las mismas áreas del cerebro que registran los objetivos cercanos, incluso antes de que el animal comience a caminar.
Esto significa que los objetivos de movimiento, ya sean para ir lejos o cerca dentro de la habitación, se pueden obtener de las mismas áreas del cerebro, sin importar si el objetivo requiere caminar o no.
Este descubrimiento podría aprovecharse para desarrollar interfaces cerebro-ordenador que controlen hogares inteligentes, señalan los investigadores.
De hecho, esta investigación forma parte de "Plan4Act", un proyecto financiado por la UE para desarrollar interfaces cerebro-ordenador destinados a hogares inteligentes, y en el que participa España a través de la Universidad Politécnica de Madrid.
El resultado obtenido es importante porque hasta ahora los interfaces cerebro-ordenador se han centrado en planificar movimientos controlados de manos y brazos para conseguir objetivos cercanos al usuario.
El nuevo descubrimiento permitirá trascender esta limitación y controlar el hogar solo con el pensamiento, aunque no será mañana.
Referencia
Wireless recording from unrestrained monkeys reveals motor goal encoding beyond immediate reach in frontoparietal cortex. Michael Berger et al. eLife 2020;9:e51322. DOI:10.7554/eLife.5132
Wireless recording from unrestrained monkeys reveals motor goal encoding beyond immediate reach in frontoparietal cortex. Michael Berger et al. eLife 2020;9:e51322. DOI:10.7554/eLife.5132