¿Llegaremos algún día a crear máquinas conscientes? Aunque la posibilidad es inquietante (tanto, que ha dado lugar a personajes como HAL 9000 o Terminator), lo cierto es que está bastante lejos de convertirse en realidad.
Proporcionar consciencia a un objeto precisaría que este tuviera un "cerebro", no solo lo suficientemente complejo como para procesar información y generar pensamiento abstracto, del mismo modo que lo hace el nuestro, sino también para generar un sentido unitario del yo, tomar decisiones más allá de su programación inicial o sentir y comunicar sus sentimientos.
De momento, lo que sí se ha conseguido es que las máquinas de inteligencia artificial puedan resolver rápidamente tareas computacionales. Esto es posible gracias a sofisticados sistemas de inteligencia artificial que permiten a las máquinas “aprender”.
Se denominan sistemas de “aprendizaje profundo” y están formados por capas intercomunicadas de algoritmos especializados en asimilar representaciones de datos. Gracias a ellos, las máquinas de inteligencia artificial pueden, por ejemplo, aprender a identificar enfermedades o rostros.
Pero incluso esa capacidad de aprendizaje depende inicialmente de un programador humano. De momento, las máquinas de inteligencia artificial aún no son capaces de pensar por sí mismas.
Conocer y replicar la consciencia
Poder dotar a las máquinas de consciencia deberá pasar ineludiblemente por que entendamos qué es la consciencia. En 2017, la revista Science publicaba un artículo al respecto. En él se sintetizaba (y se simplificaba) el funcionamiento de la consciencia humana, para tratar de dilucidar cómo esta podría incorporarse a las máquinas de inteligencia artificial.
Según los autores del artículo, entre los que se encontraba el neurocientífico francés Stanislas Dehaene, de cuyos estudios sobre la consciencia en bebés hemos hablado hace poco, en el ser humano existen tres niveles de consciencia humana. Dehaene es Director de la unidad de Neuroimagen Cognitiva del Centro de NeuroSpin de París y profesor de la cátedra de Psicología Cognitiva Experimental del College de Francia.
En el primero de los niveles de la consciencia humana, definido como "C0", se producirían los cálculos cerebrales inconscientes, por ejemplo, aquellos que nos permiten reconocer caras. En el segundo nivel, el "C1", se filtrarían y evaluarían los datos que nos llegan del mundo exterior para modular nuestras respuestas a circunstancias específicas. La autoconsciencia surgiría en un tercer nivel de consciencia, el "C2", y conllevaría poder reconocer y corregir los propios errores o investigar lo desconocido.
Según Dehaene y su equipo, si se logra traducir a términos computacionales la actividad neuronal que permite estos tres niveles de consciencia, las máquinas podrían ser programadas para la consciencia.
Proporcionar consciencia a un objeto precisaría que este tuviera un "cerebro", no solo lo suficientemente complejo como para procesar información y generar pensamiento abstracto, del mismo modo que lo hace el nuestro, sino también para generar un sentido unitario del yo, tomar decisiones más allá de su programación inicial o sentir y comunicar sus sentimientos.
De momento, lo que sí se ha conseguido es que las máquinas de inteligencia artificial puedan resolver rápidamente tareas computacionales. Esto es posible gracias a sofisticados sistemas de inteligencia artificial que permiten a las máquinas “aprender”.
Se denominan sistemas de “aprendizaje profundo” y están formados por capas intercomunicadas de algoritmos especializados en asimilar representaciones de datos. Gracias a ellos, las máquinas de inteligencia artificial pueden, por ejemplo, aprender a identificar enfermedades o rostros.
Pero incluso esa capacidad de aprendizaje depende inicialmente de un programador humano. De momento, las máquinas de inteligencia artificial aún no son capaces de pensar por sí mismas.
Conocer y replicar la consciencia
Poder dotar a las máquinas de consciencia deberá pasar ineludiblemente por que entendamos qué es la consciencia. En 2017, la revista Science publicaba un artículo al respecto. En él se sintetizaba (y se simplificaba) el funcionamiento de la consciencia humana, para tratar de dilucidar cómo esta podría incorporarse a las máquinas de inteligencia artificial.
Según los autores del artículo, entre los que se encontraba el neurocientífico francés Stanislas Dehaene, de cuyos estudios sobre la consciencia en bebés hemos hablado hace poco, en el ser humano existen tres niveles de consciencia humana. Dehaene es Director de la unidad de Neuroimagen Cognitiva del Centro de NeuroSpin de París y profesor de la cátedra de Psicología Cognitiva Experimental del College de Francia.
En el primero de los niveles de la consciencia humana, definido como "C0", se producirían los cálculos cerebrales inconscientes, por ejemplo, aquellos que nos permiten reconocer caras. En el segundo nivel, el "C1", se filtrarían y evaluarían los datos que nos llegan del mundo exterior para modular nuestras respuestas a circunstancias específicas. La autoconsciencia surgiría en un tercer nivel de consciencia, el "C2", y conllevaría poder reconocer y corregir los propios errores o investigar lo desconocido.
Según Dehaene y su equipo, si se logra traducir a términos computacionales la actividad neuronal que permite estos tres niveles de consciencia, las máquinas podrían ser programadas para la consciencia.
Acercamientos
De momento, lo máximo que se ha conseguido, al menos según lo que sabemos, es lo siguiente. En 2015 se realizó un experimento en el laboratorio de robótica de Nueva York, en Estados Unidos, que consistió en hacer “creer” a dos de tres robots Nao que se les había dado una pastilla que los dejaba sin habla.
En realidad, simplemente se había pulsado en dos de ellos un botón para silenciarlos, pero ninguno de los tres sabía cuál de ellos podía seguir hablando. Eso era lo que tenían que averiguar.
Cuando el investigador les preguntó a los robots, los procesadores de estos trataron de buscar la respuesta correcta. Ya que dos no podían hablar porque estaban silenciados, sólo uno respondió en voz alta: “no sé”.
En ese momento, aseguraron los autores del experimento, cayó en la cuenta de la solución: al oír su propia voz robótica, entendió que no podía estar silenciado. Entonces señaló: "puedo demostrar que no me dieron la pastilla". Según un artículo publicado en la revista New Scientist, esta fue la primera vez que un robot superaba un enigma de este tipo, acercándose así a los límites de la (auto) consciencia.
Otros dos ejemplos nos han llamado la atención en los últimos años a este respecto: uno es el de Nico, un robot de investigación de la Universidad de Yale capaz de reconocer su propia mano en un espejo, y otro es Qbo, un proyecto español de código abierto programado para tareas de reconocimiento facial o de objetos, que puede reconocerse a sí mismo frente a un espejo.
Sin embargo, en todos estos casos los robots no han hecho más que constatar en ellos mismos una característica que habrían reconocido del mismo modo en otros, es decir, que su logro no implicaría que sean capaces de distinguirse de los demás o tener noción de un “yo”.
El temor a lo desconocido
A pesar de lo lejos que parecen quedar las máquinas conscientes, sus potenciales peligros ya pesan en la consciencia de algunos (todos ellos humanos).
Los riesgos de estas máquinas, y en concreto su potencial uso en el terreno bélico, fue alertado en 2007 por un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Hace un par de años, además, el ya fallecido Stephen Hawking y otras 16.000 personas lanzaron una campaña para señalar el riesgo de que crear 'robots asesinos', quizá inteligentes pero con una consciencia (en el sentido moral del término) mínima; programada por humanos sin escrúpulos.
De momento, lo máximo que se ha conseguido, al menos según lo que sabemos, es lo siguiente. En 2015 se realizó un experimento en el laboratorio de robótica de Nueva York, en Estados Unidos, que consistió en hacer “creer” a dos de tres robots Nao que se les había dado una pastilla que los dejaba sin habla.
En realidad, simplemente se había pulsado en dos de ellos un botón para silenciarlos, pero ninguno de los tres sabía cuál de ellos podía seguir hablando. Eso era lo que tenían que averiguar.
Cuando el investigador les preguntó a los robots, los procesadores de estos trataron de buscar la respuesta correcta. Ya que dos no podían hablar porque estaban silenciados, sólo uno respondió en voz alta: “no sé”.
En ese momento, aseguraron los autores del experimento, cayó en la cuenta de la solución: al oír su propia voz robótica, entendió que no podía estar silenciado. Entonces señaló: "puedo demostrar que no me dieron la pastilla". Según un artículo publicado en la revista New Scientist, esta fue la primera vez que un robot superaba un enigma de este tipo, acercándose así a los límites de la (auto) consciencia.
Otros dos ejemplos nos han llamado la atención en los últimos años a este respecto: uno es el de Nico, un robot de investigación de la Universidad de Yale capaz de reconocer su propia mano en un espejo, y otro es Qbo, un proyecto español de código abierto programado para tareas de reconocimiento facial o de objetos, que puede reconocerse a sí mismo frente a un espejo.
Sin embargo, en todos estos casos los robots no han hecho más que constatar en ellos mismos una característica que habrían reconocido del mismo modo en otros, es decir, que su logro no implicaría que sean capaces de distinguirse de los demás o tener noción de un “yo”.
El temor a lo desconocido
A pesar de lo lejos que parecen quedar las máquinas conscientes, sus potenciales peligros ya pesan en la consciencia de algunos (todos ellos humanos).
Los riesgos de estas máquinas, y en concreto su potencial uso en el terreno bélico, fue alertado en 2007 por un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Hace un par de años, además, el ya fallecido Stephen Hawking y otras 16.000 personas lanzaron una campaña para señalar el riesgo de que crear 'robots asesinos', quizá inteligentes pero con una consciencia (en el sentido moral del término) mínima; programada por humanos sin escrúpulos.
Referencia bibliográfica:
Stanislas Dehaene, Hakwan Lau, Sid Kouider. What is consciousness, and could machines have it? Science (2017). DOI: 10.1126/science.aan8871.
Stanislas Dehaene, Hakwan Lau, Sid Kouider. What is consciousness, and could machines have it? Science (2017). DOI: 10.1126/science.aan8871.