Traducen lo que ve el cerebro casi a la velocidad de la percepción

Los científicos decodifican en tiempo real las señales transmitidas por electrodos implantados en los lóbulos temporales


Neurocientíficos de EE.UU. decodifican las señales del cerebro casi a la velocidad de la percepción. En concreto, saben si una persona está viendo una casa, una cara, o una pantalla en blanco, a partir de las señales que transmiten electrodos implantados en los lóbulos temporales.


EurekAlert!/T21
02/02/2016

Imágenes de casas y caras, y electrodos enviando la reacción del cerebro. Imagen: Kai Miller/Brian Donohue. Fuente: UW.
Usando electrodos implantados en los lóbulos temporales de pacientes despiertos, los científicos han decodificado las señales del cerebro casi a la velocidad de la percepción. Además, el análisis de las respuestas neuronales de los pacientes a dos categorías de estímulos visuales -imágenes de rostros y casas- permitió a los científicos predecir posteriormente qué imágenes estaban viendo los pacientes, y cuándo, con más del 95 por ciento de exactitud.

El neurocientífico computacional Rajesh Rao y el neurocirujano Jeff Ojemann, de la Universidad de Washington (Seattle, EE.UU.), trabajando con su estudiante Kai Miller y con sus colegas de la Universidad Stanford (California) y del Instituto Wadsworth de Nueva York, realizaron el estudio. La investigación se publica en PLOS Computational Biology.

"Estábamos tratando de entender, en primer lugar, cómo percibe el cerebro humano los objetos en el lóbulo temporal, y en segundo lugar, ¿cómo se podría utilizar un ordenador para extraer y predecir lo que alguien está viendo en tiempo real?", explica Rao en la nota de prensa de la UW, recogida por EurekAlert! Rao dirige el Centro para Ingeniería Sensorimotora, de la Fundación Nacional de Ciencia, con sede en la Universidad de Washington.

"A nivel clínico, se podría pensar en nuestro resultado como una prueba de concepto hacia la construcción de un mecanismo de comunicación para los pacientes que están paralizados o han tenido un derrame cerebral y están completamente bloqueados", dice.

El estudio incluyó a siete pacientes con epilepsia atendidos en el Harborview Medical Center de Seattle. Todos experimentaban ataques epilépticos que no se atenuaban con medicamentos, dice Ojemann, por lo que fueron sometidos a una cirugía en la que se les implantaron electrodos en los lóbulos temporales -temporalmente, durante una semana- para tratar de localizar los puntos focales de las convulsiones.

"Se iban a poner los electrodos en cualquier caso; nosotros sólo les dimos tareas adicionales que hacer durante su estancia en el hospital, en el que hubieran estado esperando igualmente," dice Ojemann.

Lóbulos temporales

Los lóbulos temporales procesan la información sensorial y son un lugar habitual de crisis epilépticas. Situados detrás de los ojos y los oídos de los mamíferos, los lóbulos también están implicados en la enfermedad de Alzheimer y las demencias, y parecen algo más vulnerables que otras estructuras del cerebro a los traumatimos craneales, añade.

En el experimento, los electrodos de los lóbulos se conectaron a un potente software computacional que extrajo dos propiedades características de la señal del cerebro: "potenciales relacionados con eventos" y "cambios en el espectro de banda ancha."

Rao define la primera como la que surge cuando "cientos de miles de neuronas se co-activan cuando una imagen se les presenta por primera vez", y la segunda como "continuación del procesado de la información tras la onda inicial".

A los sujetos se les mostró en la pantalla de un ordenador una secuencia aleatoria de imágenes: breves (400 milisegundos) destellos de imágenes de rostros humanos y casas, intercalados con pantallas grises vacías. Su tarea era buscar una imagen de una casa al revés. "Tuvimos diferentes respuestas según la situación de los electrodos: algunos eran sensibles a las caras y otros a las casas", dice Rao.

Software

El software computacional muestreó y digitalizó las señales del cerebro a un ritmo de 1.000 por segundo para extraer sus características. También analizó los datos para determinar qué combinación de localizaciones de electrodos y tipos de señal correlacionaban mejor con lo que cada sujeto realmente veía.

Al crear un algoritmo con las respuestas de los sujetos a los primeros dos tercios de las imágenes, los investigadores pudieron examinar las señales cerebrales del último tercio de imágenes, cuyas etiquetas eran desconocidas para ellos, y predecir con un 96 por ciento de precisión si los sujetos estaban viendo una casa, un rostro o una pantalla gris, y cuándo (con menos de 20 milisegundos de margen de error).

Esta precisión se alcanzaba sólo cuando los potenciales relacionados con eventos y los cambios de banda ancha se combinaban para la predicción, lo que sugiere que transportan información complementaria.

"Tradicionalmente los científicos han examinado las neuronas individuales", dice Rao. "Nuestro estudio da una visión más global, a nivel de grandes redes de neuronas, de cómo una persona que está despierta y presta atención percibe un objeto visual complejo."
La técnica de los científicos, dice, es un trampolín para el mapeo cerebral, ya que podría ser utilizada para identificar en tiempo real qué lugares del cerebro son sensibles a los distintos tipos de información.

"Las herramientas computacionales que desarrollamos se pueden aplicar a los estudios de la función motora, los de la epilepsia, y a los estudios de la memoria", añade Ojemann.

Referencia bibliográfica:

Kai J. Miller, Gerwin Schalk, Dora Hermes, Jeffrey G. Ojemann, Rajesh P. N. Rao: Spontaneous Decoding of the Timing and Content of Human Object Perception from Cortical Surface Recordings Reveals Complementary Information in the Event-Related Potential and Broadband Spectral Change. PLOS Computational Biology (2016). DOI: 10.1371/journal.pcbi.1004660.



EurekAlert!/T21
Artículo leído 3830 veces



Más contenidos