Europa y Estados Unidos se lanzan a la conquista del cerebro

Los proyectos “The Human Brain” y “Brain Map” harán avances sustanciales, pero es dudoso que consigan su principal objetivo


Hace unas semanas se anunciaron los dos proyectos "Flagship" de la Comisión Europea, uno de los cuales se centra en un desafío significativo dentro la investigación científica: el Cerebro Humano (The Human Brain). Por otra parte, Estados Unidos ha anunciado su proyecto "Brain Map” ("Mapa del Cerebro"). ¿Quién va a tener éxito? Probablemente ambas iniciativas harán avances sustanciales, pero es dudoso que el objetivo final de obtener un mapa detallado del funcionamiento del cerebro se pueda lograr. Por Víctor Maojo.


Víctor Maojo
26/02/2013

Imagen: John Sfondilias. Fuente: PhotoXpress.
Hace unas semanas se anunciaron los dos proyectos "Flagship" de la Comisión Europea, aprobados con la intención de que se conviertan en símbolos de la investigación europea.

Uno de ellos se centra en un desafío significativo dentro la investigación científica: el Cerebro Humano (The Human Brain). Financiado con más de mil millones de euros durante los próximos diez años, en un momento de angustias financieras y drásticos recortes de fondos públicos para investigación, este proyecto tiene como objetivo descubrir cómo funciona el cerebro, mediante el modelado y simulación de millones de conexiones neuronales y el uso y desarrollo para ese estudio de nuevos métodos de supercomputación.

Según se presenta, un objetivo adicional es la creación de un sistema dinámico, inteligente, que tendrá acceso a una base de datos con información de todas las publicaciones de relevancia en la investigación en neurociencias, automáticamente seleccionados de la literatura existente mediante técnicas de extracción de información y minería de textos.

Al acceder a este sistema, los investigadores podrán encontrar todo el conocimiento relevante publicado sobre el cerebro y utilizarlo para construir sus propios modelos cerebrales.

El cerebro no es como un ordenador

¿Mi opinión? A pesar de que podrá ser un interesante avance construir simulaciones de millones de neuronas su interés será sólo relativo si esa simulación es sólo parcial o sólo aproximada. Una cuestión fundamental previa es poder construir un modelo y simulación detallada y precisa de sólo unos grupos de neuronas.

Una vez que conozcamos en profundidad cómo las neuronas almacenan, transmiten, codifican e interpretan la información (y en última instancia, cómo la información es codificada, transmitida y reconocida entre dos neuronas), el proceso de descubrimiento realizado "de abajo arriba" se convertiría en una cuestión factible.

John von Neumann señalaba, pocas semanas antes de su muerte, varias ideas publicadas en su libro póstumo "El ordenador y el cerebro" (1958).

Por ejemplo, cómo el tratamiento de la información y la "lógica" del cerebro son totalmente diferentes a los de los ordenadores --con frecuencia llamados "ordenadores von Neumann", por haber sido él mismo el que diseñó el modelo lógico y su arquitectura teórica.

Del mismo modo, Claude Shannon, el fundador de la moderna teoría de la comunicación --también conocida como Teoría de la Información de Shannon --, siempre negó la posibilidad de que su teoría fuese útil para comprender cómo la información se codifica y se transmite en los seres vivos.

No sorprende que las investigaciones realizadas con el uso de la teoría de Shannon para descubrir el código genético en la década de 1950 fracasasen.

Mientras que el uso de esta teoría en los ordenadores --los conocidos "bits" incluidos--, ha revolucionado el manejo de información y conocimiento humano, nos ha sido de relativa poca utilidad para ayudarnos a entender los procesos de manejo de información en el interior de los propios seres vivos y dar sentido a los muchos tipos de "información" que reconocemos entre los humanos.

Sin embargo, esa dirección de "abajo-arriba" no será suficiente para comprender procesos complejos a un nivel neuronal más alto, considerando grupos numerosos de neuronas, tales como los de la memoria a corto plazo y largo plazo, el razonamiento, el procesamiento del lenguaje, la interpretación de imágenes, y otras funciones básicas del cerebro. Incluso la conciencia.

Necesidad de estudio en dos direcciones

Esa investigación requerirá un abordaje distinto, combinando ese enfoque reduccionista con otro "de arriba abajo", en el que la influencia del entorno es fundamental. Estas dos direcciones, complementarias, son necesarias.

La propuesta de construir una gran base de datos que contenga toda la información publicada sobre investigación neurocientífica, que necesitaría actualización automática constante, podría resultar mucho más sencillo de lo que parece, al menos desde el punto de vista computacional.

De hecho, en nuestro Grupo de Informática Biomédica de la Universidad Politécnica de Madrid hemos llevado a cabo este tipo de investigación con un análisis de la información procedente de todos los artículos almacenados en PubMed, creando un método que puede extraer automáticamente información acerca de recursos informáticos en la bioinformática, informática médica y la nanoinformática.

Esto pretende crear lo que podría llamarse una "resourceome", es decir, un conjunto de recursos de información de diferentes tipos y en diferentes niveles. Este trabajo fue publicado hace unos años, con éxito, como se reflejó también con una mención en el blog de los editores de la sección Science Careers de la conocida revista Science.

El problema de extraer información precisa acerca de la fisiología del cerebro a partir de la literatura puede considerarse muy similar.

Estados Unidos y el Brain Map

Hace unos días, el proyecto americano "Brain Map" fue mencionado en el discurso de "El Estado de la Nación" del presidente Obama. Este no es el primer megaproyecto relacionado con el tema, pues la "Década del Cerebro", fue lanzada antes, en 1990, por el presidente Bush (padre).

Obama comparó este nuevo proyecto "Mapa del Cerebro" con el Proyecto Genoma Humano, que tuvo un enorme impacto científico. Por ejemplo, gracias a este último se han creado varias nuevas áreas científicas y ha cambiado nuestra perspectiva de la genética y la genómica, así como la propia medicina en su totalidad.

Desde el punto de vista económico, también se ha puesto en marcha toda una industria. Según Obama, este proyecto podría tener un éxito económico y científico similar. Sin embargo, hay que recordar también que la "Década del Cerebro" tuvo un éxito muy limitado, y se recuerda hoy con poco entusiasmo.

Ahora habrá que esperar a ver qué pasa con este nuevo proyecto. Con 300 millones de dólares por año (duplicando el proyecto europeo Human Brain, como sucede a menudo en estas comparaciones científicas entre ambos lados del Atlántico), el proyecto americano Brain Map parece dispuesto a comenzar la construcción de un mapa del cerebro.

En principio parece similar al propio proyecto europeo, pero a un nivel más detallado, buscando los principios básicos de funcionamiento neuronal. Para ello será necesario crear nuevas técnicas de investigación, que incluirían desarrollos nanotecnológicos y de gestión de información al nivel molecular y "nano".

Gestionar la información existente y generada a tal nivel nano es el objetivo de una disciplina reciente llamada nanoinformática, en la que nuestro grupo ha participado sus primeros desarrollos. Incluyo al final algunas publicaciones que hemos realizado hasta la fecha en el área de nanoinformática.

¿Quién llegará primero a la meta?

¿Quién va a tener éxito? Si se me permite tratar de ser adivino, tanto el proyecto estadounidense como el europeo probablemente harán avances sustanciales, pero es dudoso que el objetivo final de obtener un mapa detallado del funcionamiento del cerebro se pueda lograr en este corto período de tiempo.

En esta carrera, un proyecto de ciencia básica como el americano --con un presupuesto mayor, además-- puede tener mayores posibilidades de éxito; sin embargo, las comparaciones con el Proyecto Genoma Humano no son realistas.

Este último era un problema que no pretendía realizar avances fundamentales en química o biología básica y se benefició sustancialmente de una estrategia brillante: compartir abiertamente la información y herramientas informáticas generadas por cada grupo.

De hecho, obtener la secuenciación del ADN humano era tarea laboriosa y complicada, pero ya se conocía la estructura del ADN y algunas técnicas fundamentales ya estaban disponibles, por lo que no era imprescindible lograr avances radicales en la ciencia básica o un cambio de paradigma en el sentido de Kuhn.

La secuenciación del ADN progresó rápidamente a través de la coordinación del trabajo entre los distintos grupos y el intercambio libre y abierto de información y de programas de bioinformática en varios continentes. Un problema muy complicado, pero no excesivamente complejo, haciendo un juego de palabras.

Una vez que el genoma humano fue secuenciado, el siguiente objetivo era identificar los genes y las mutaciones que subyacen a muchas enfermedades (cáncer, enfermedades raras, etc); pero esto ha demostrado ser un problema mucho más complejo de lo que fue la secuenciación del ADN. El camino hacia la medicina genómica promete ser mucho más difícil de lo esperado.

Además de la dificultad de lograr un consenso entre más de un centenar de grupos de investigación en el proyecto europeo, superar los desafíos científicos presentados y sobrevivir a la burocracia paquidérmica de este tipo de megaproyectos --particularmente en el proyecto europeo-- existe un riesgo inherente: si fallan, se puede detener el progreso en el área por muchos años.

Un ejemplo es el famoso proyecto de la "Quinta Generación" de ordenadores, lanzado en Japón en los años 80, que tenía por objeto la creación de computadoras inteligentes que pudiesen ser fácilmente programadas y pueden comunicarse con los humanos en lenguaje natural. No tuvo éxito, según la inmensa mayoría de informes; pero podríamos considerar, en el sentido de este blog, que no fue un fracaso para los que se beneficiaron de los mil millones de dólares que el gobierno japonés invirtió en él...

¡Preparados, listos, ya! La carrera acaba de comenzar...

Referencias bibliográficas:

de la Calle G, García-Remesal M, Nkumu-Mbomio N, Kulikowski C, Maojo V. e-MIR2: a public online inventory of medical informatics resources. BMC Med Inform Decis Mak (2012). DOI:10.1186/1472-6947-12-82.

de la Calle G, García-Remesal M, Chiesa S, de la Iglesia D, Maojo V. BIRI: a new approach for automatically discovering and indexing available public bioinformatics resources from the literature. BMC Bioinformatics (2009). DOI:10.1186/1471-2105-10-320.

Science Careers: http://blogs.sciencemag.org/sciencecareers/2010/07/easier-access-t.html.

Victor Maojo, Martin Fritts, Diana de la Iglesia, Raul E. Cachau, Miguel Garcia-Remesal, Joyce A. Mitchell, Casimir Kulikowski. Nanoinformatics: a new area of research in nanomedicine. International Journal of Nanomedicine (2012). DOI: 10.2147/IJN.S24582.

Maojo V, Fritts M, Martin-Sanchez F, De la Iglesia D, Cachau RE, Garcia-Remesal M, Crespo J, Mitchell JA, Anguita A, Baker N, Barreiro JM, Benitez SE, De la Calle G, Facelli JC, Ghazal P, Geissbuhler A, Gonzalez-Nilo F, Graf N, Grangeat P, Hermosilla I, Hussein R, Kern J, Koch S, Legre Y, Lopez-Alonso V,Lopez-Campos G, Milanesi L, Moustakis V, Munteanu C, Otero P, Pazos A, Perez-Rey D, Potamias G, Sanz F, Kulikowski C. Nanoinformatics: developing new computing applications for nanomedicine. Comput Sci Eng. (2012).

Víctor Maojo es doctor en medicina e informática y catedrático de inteligencia artificial. Desde 1993 dirige el Grupo de Informática Biomédica de la Universidad Politécnica de Madrid. Este artículo fue publicado originalmente en su blog Ciencia y Sátiras de Tendencias21.




Víctor Maojo
Artículo leído 7331 veces



Más contenidos