Creatividad sobre la película IA. Fanart
La IA ha planteado una interesante paradoja: a pesar de que ha sido capaz de reproducir eficientemente algunas funciones “superiores” de la inteligencia humana (como el razonamiento, la resolución de problemas y la toma de decisiones), le cuesta mucho entender una simple historia infantil, reconocer un animal o discriminar lo importante de lo banal.
¿Cómo se entiende esta aparente dicotomía? Es que la máquina “razona” utilizando una lógica estricta. El hombre, en cambio, no analiza las situaciones minuciosamente, sino que se basa mucho en lo que se denomina “sentido común”.
Del mismo modo que la mayor parte de un témpano se oculta debajo del agua, el sentido común está tan profundamente “entretejido” en el inconsciente que el hombre ni siquiera se da cuenta de cómo lo usa en su vida diaria. Sólo una muy pequeña fracción del pensamiento humano es consciente; la mayor parte es, en realidad, pensamiento inconsciente (incluyendo el sentido común) [Moriello, 2001].
Al contar con conocimiento de sentido común, las máquinas podrán comprender el contexto y, en consecuencia, mejorar su desempeño en una gran cantidad de actividades “inteligentes” como tratamiento de lenguajes naturales (tanto oral como escrito), traducciones desde y hacia otros idiomas, reconocimiento de imágenes y de patrones, resolución de problemas o toma de decisiones expertas.
Además, le permitirá contar con dos de las técnicas claves que usan los humanos para pensar nuevas situaciones: ir del conocimiento particular al general, y establecer analogías entre situaciones aparentemente no relacionadas [Freedman, 1995].
No obstante, y a decir verdad, ya se ha logrado construir máquinas con un cierto sentido común, pero sólo cuando el campo se circunscribe en extremo y la aplicación es muy específica.
Así, por ejemplo, se podría decir que Deep Blue tiene sentido común, pero sólo y únicamente para jugar al ajedrez. Lo que todavía se torna muy difícil es lograr incorporarle a la máquina el conocimiento general de sentido común del que dispone todo ser humano.
¿De qué se trata?
Muchos definen al sentido común como ese inmenso caudal de conocimientos “tácitos” (producto de la experiencia acumulada durante millones de años por la especie) que facilita la comprensión inmediata del mundo. Es ese enorme conjunto de pequeñas nociones, ese trasfondo de presupuestos y creencias, ese conocimiento cotidiano, amplio y general –aunque poco profundo– sobre muchos campos especializados. En cierto sentido, todo ser humano es físico, psicólogo, biólogo, sociólogo, abogado, médico e ingeniero intuitivo, ya que cuenta con ideas elementales acerca de esos campos del saber [Pinker, 2001].
Como ejemplos de este tipo de conocimientos se pueden mencionar: que si algo se encuentra en un lugar no puede estar simultáneamente en otro lugar. Que las causas preceden a sus efectos y que los objetos caen al piso si se los suelta. Que si uno le roba algo a alguien, ese alguien se enojará. Que las personas viven en casas, los osos en cuevas, los pájaros en nidos y los zorros en madrigueras.
Que si alguien va al supermercado, su cabeza también va con él y que si alguien está dentro de una habitación, debe haber entrado por algún lado. Que toda persona es menor que sus padres y que cualquier líquido se congela con suficiente frío.
O también, el hecho de que cuando un gato va a dar un salto, inconscientemente ejecuta millones de operaciones simultáneas que, de forma consciente, sería incapaz de realizar. En efecto, el animal sólo piensa en saltar, y su cerebro automáticamente recoge toda la información captada por sus sentidos, busca en su memoria casos similares y le dice qué tan rápido correr, en qué momento ejecutar el salto, qué fuerza aplicar a sus patas traseras y cuándo y cuánto estirar sus patas delanteras [Moriello, 2001].
El problema
Las investigaciones en IA comprobaron que el sentido común es muy difícil de desarrollar en una máquina y además que proviene de un bajo nivel de razonamiento asociado a una experiencia previa. Representar el conocimiento de sentido común en una computadora constituye un desafío aún no superado por la IA.
¿Por qué se torna tan difícil alcanzar dicho objetivo? Una de las razones podría ser su extenso volumen. Aunque nadie lo sabe con seguridad, se estima que serían necesarios cien millones de conceptos (para un Sistema Experto es suficiente, a lo sumo, con algunas decenas de miles) [Kurzweil, 1999].
Otra dificultad surge del hecho de que el conocimiento de sentido común no tiene fronteras bien definidas; es muy fuerte la interconexión y la interdependencia entre todos los diferentes conceptos. La red conceptual humana no sólo es muy extensa, sino también está muy interrelacionada. Tal como señaló el filósofo y matemático Gottfried Leibniz, “no existe ningún término tan absoluto o tan independiente que no contenga ninguna relación con todos los demás” [Crevier, 1993].
Por último, existe el problema de que muchos conceptos son aproximados, de naturaleza cualitativa, por lo que raramente necesita medidas numéricas exactas. Si bien el sentido común parece estar compuesto por reglas, cada una de ellas tiene tantas excepciones que carece de utilidad. Una informática de sentido común necesita el uso de conceptos aproximados y eliminar los detalles irrelevantes.
Lo que se necesita
Como se puede apreciar, y si bien el dotar a las máquinas de grandes volúmenes de información puede resultar relativamente sencillo, el obstáculo fundamental es que se necesitan varias formas para representar el conocimiento de sentido común.
Es decir, para cada concepto, para cada fragmento de información, se debe elegir una clase de “estructura” y una forma adecuada de relacionarlo con los demás conceptos a fin de edificar el conocimiento dentro de la memoria de la máquina [Minsky, 1986].
No es suficiente almacenar y/o catalogar unos cuantos millones o decenas de millones de hechos separados, también se necesitan sistemas aptos para combinarlos entre sí, decidir qué hechos deben tenerse en cuenta y cuáles no y contar con la capacidad de acceder a conocimientos relevantes de forma rápida, sin esfuerzo y de forma inmediata [Rich y Knight, 1994].
En pocas palabras, el problema es cómo organizar, implementar y actualizar la “base de conocimientos de sentido común”. Un sistema que interaccione con el mundo real debería “saber” algo sobre causa y efecto, tiempo y espacio, procesos y materiales.
También tendrá que contener información sobre todo el conocimiento que la mayoría de los niños saben (edificios, juguetes, comida, emociones, leyendas, ropas, herramientas), y entender las “funciones” o los “usos” de todo eso [Minsky, 1986].
La solución
A fin de dotar a una máquina con un cierto sentido común, se barajan dos posibilidades: o se le inculcan miles de millones de conceptos, o se construye un robot “bebé” que aprenda a medida que se desarrolla.
Este es el camino que siguieron dos líderes de la IA: el matemático Douglas Lenat, de la empresa Cyc, y el profesor Rodney Brooks, del MIT (Instituto Tecnológico de Massachussets). Conceptualmente sus propuestas representan dos caminos opuestos (aunque no incompatibles entre sí): Cyc es un acercamiento descendente o Top-Down y Cog es un acercamiento ascendente o Bottom-Up [Moriello, 2001].
Cyc (de enCYClopedic) es un programa que cuenta con un enorme motor de inferencias y una gran base de conocimientos. Esta última (en la cual ya se invirtieron muchos años-hombre) contiene más de un millón de “microteorías” acerca del mundo, así como deducciones hechas por la misma máquina. Lenat cree que Cyc comenzará a aprender por sí mismo y con mayor rapidez (leyendo libros, diarios y revistas electrónicas) cuando cuente con 100 millones de microteorías que cubren el conocimiento general.
Mientras tanto algunas decenas de personas examinan y analizan, oración por oración y sentencia a sentencia, artículos de libros y revistas, noticias y novelas, definiciones en enciclopedias y anuncios. Introducen en su base de conocimientos no sólo lo que se expresa explícitamente, sino también -lo que es más importante- los datos que un escritor asume que cualquier lector conoce. Es este conocimiento previo, común y generalizado (y no el contenido del texto), lo que hay que codificar.
En el otro rincón está Cog (por COGnitivo). Se trata de un ambicioso experimento inspirado en estructuras biológicas -en vez de lógicas- que consiste en dejar que un robot humanoide “experimente” y descubra por sí mismo el complejo entorno en el que está inmerso, al igual que lo hacen los niños (en lugar de poblar su memoria con una detallada descripción del mundo desde la particular perspectiva humana).
Cog es como un infante que debe aprender, por prueba y error, a ver, caminar y tomar decisiones, así como también las normas de conducta y la escala de valores de la sociedad. A través de sus sentidos artificiales (de visión, audición y tacto) absorbe información que alimenta su sentido común.
La idea es darle a la máquina unos conceptos básicos, situarla en un entorno que pueda percibir y en el que pueda actuar y, de esa manera, averiguar qué logra aprender por sí misma. Más adelante, una vez que conozca los objetos del mundo que le rodean, podrá aprender mediante las interacciones con los seres humanos.
Sergio Alejandro Moriello es periodista científico, Ingeniero en Electrónica y posgraduado en Administración Empresarial. Actualmente está finalizando la Maestría en Sistemas de Información. Es autor del libro Inteligencias Sintéticas.
Bibliografía:
1. Boden, M., comp., Filosofía de la Inteligencia Artificial. (Fondo de Cultura Económica, 1994.)
2. Calvin, W., Como piensan los cerebros. (Editorial Debate, 2001.)
3. Copeland, J., Inteligencia Artificial. Una introducción filosófica. (Alianza Editorial, 1996.)
4. Crevier, D., Inteligencia Artificial. (Acento Editorial, 1993.)
5. Freedman, D., Los hacedores de cerebros. (Editorial Andrés Bello, 1995.)
6. Ganascia, J., La Inteligencia Artificial. (Editorial Debate, 1994.)
7. García García, E., Mente y Cerebro. (Editorial Síntesis, 2001.)
8. Gardner, H., La inteligencia reformulada. (Ediciones Paidós, 2001.)
9. Johnson-Laird, Ph., El ordenador y la mente. (Ediciones Paidós, 1993, 2° edición revisada.)
10. Kurzweil, R., La era de las máquinas espirituales. (Editorial Planeta, 1999.)
11. Minsky, M., La Sociedad de la mente. (Ediciones Galápago, 1986.)
12. Moriello, S., Inteligencias Sintéticas. (Editorial Alsina, 2001.)
13. Nilsson, N., Inteligencia Artificial. Una nueva síntesis. (McGraw-Hill/ Interamericana de España, 2001.)
14. Pinker, S., Cómo funciona la mente. (Ediciones Destino, 2001.)
15. Rich, E. y Knight, K., Inteligencia Artificial. (McGraw Hill / Interamericana de España, 1994.)
Otros artículos del autor:
La inteligencia sintética se adentra en la “evolución artificial”
Los robots inteligentes tendrán también emociones
El cerebro sintético es la nueva frontera de la Inteligencia Artificial
Las máquinas conscientes son el siguiente reto tecnológico
Ingeniería genética y nanotecnología pueden alumbrar nuevas especies artificiales
¿Cómo se entiende esta aparente dicotomía? Es que la máquina “razona” utilizando una lógica estricta. El hombre, en cambio, no analiza las situaciones minuciosamente, sino que se basa mucho en lo que se denomina “sentido común”.
Del mismo modo que la mayor parte de un témpano se oculta debajo del agua, el sentido común está tan profundamente “entretejido” en el inconsciente que el hombre ni siquiera se da cuenta de cómo lo usa en su vida diaria. Sólo una muy pequeña fracción del pensamiento humano es consciente; la mayor parte es, en realidad, pensamiento inconsciente (incluyendo el sentido común) [Moriello, 2001].
Al contar con conocimiento de sentido común, las máquinas podrán comprender el contexto y, en consecuencia, mejorar su desempeño en una gran cantidad de actividades “inteligentes” como tratamiento de lenguajes naturales (tanto oral como escrito), traducciones desde y hacia otros idiomas, reconocimiento de imágenes y de patrones, resolución de problemas o toma de decisiones expertas.
Además, le permitirá contar con dos de las técnicas claves que usan los humanos para pensar nuevas situaciones: ir del conocimiento particular al general, y establecer analogías entre situaciones aparentemente no relacionadas [Freedman, 1995].
No obstante, y a decir verdad, ya se ha logrado construir máquinas con un cierto sentido común, pero sólo cuando el campo se circunscribe en extremo y la aplicación es muy específica.
Así, por ejemplo, se podría decir que Deep Blue tiene sentido común, pero sólo y únicamente para jugar al ajedrez. Lo que todavía se torna muy difícil es lograr incorporarle a la máquina el conocimiento general de sentido común del que dispone todo ser humano.
¿De qué se trata?
Muchos definen al sentido común como ese inmenso caudal de conocimientos “tácitos” (producto de la experiencia acumulada durante millones de años por la especie) que facilita la comprensión inmediata del mundo. Es ese enorme conjunto de pequeñas nociones, ese trasfondo de presupuestos y creencias, ese conocimiento cotidiano, amplio y general –aunque poco profundo– sobre muchos campos especializados. En cierto sentido, todo ser humano es físico, psicólogo, biólogo, sociólogo, abogado, médico e ingeniero intuitivo, ya que cuenta con ideas elementales acerca de esos campos del saber [Pinker, 2001].
Como ejemplos de este tipo de conocimientos se pueden mencionar: que si algo se encuentra en un lugar no puede estar simultáneamente en otro lugar. Que las causas preceden a sus efectos y que los objetos caen al piso si se los suelta. Que si uno le roba algo a alguien, ese alguien se enojará. Que las personas viven en casas, los osos en cuevas, los pájaros en nidos y los zorros en madrigueras.
Que si alguien va al supermercado, su cabeza también va con él y que si alguien está dentro de una habitación, debe haber entrado por algún lado. Que toda persona es menor que sus padres y que cualquier líquido se congela con suficiente frío.
O también, el hecho de que cuando un gato va a dar un salto, inconscientemente ejecuta millones de operaciones simultáneas que, de forma consciente, sería incapaz de realizar. En efecto, el animal sólo piensa en saltar, y su cerebro automáticamente recoge toda la información captada por sus sentidos, busca en su memoria casos similares y le dice qué tan rápido correr, en qué momento ejecutar el salto, qué fuerza aplicar a sus patas traseras y cuándo y cuánto estirar sus patas delanteras [Moriello, 2001].
El problema
Las investigaciones en IA comprobaron que el sentido común es muy difícil de desarrollar en una máquina y además que proviene de un bajo nivel de razonamiento asociado a una experiencia previa. Representar el conocimiento de sentido común en una computadora constituye un desafío aún no superado por la IA.
¿Por qué se torna tan difícil alcanzar dicho objetivo? Una de las razones podría ser su extenso volumen. Aunque nadie lo sabe con seguridad, se estima que serían necesarios cien millones de conceptos (para un Sistema Experto es suficiente, a lo sumo, con algunas decenas de miles) [Kurzweil, 1999].
Otra dificultad surge del hecho de que el conocimiento de sentido común no tiene fronteras bien definidas; es muy fuerte la interconexión y la interdependencia entre todos los diferentes conceptos. La red conceptual humana no sólo es muy extensa, sino también está muy interrelacionada. Tal como señaló el filósofo y matemático Gottfried Leibniz, “no existe ningún término tan absoluto o tan independiente que no contenga ninguna relación con todos los demás” [Crevier, 1993].
Por último, existe el problema de que muchos conceptos son aproximados, de naturaleza cualitativa, por lo que raramente necesita medidas numéricas exactas. Si bien el sentido común parece estar compuesto por reglas, cada una de ellas tiene tantas excepciones que carece de utilidad. Una informática de sentido común necesita el uso de conceptos aproximados y eliminar los detalles irrelevantes.
Lo que se necesita
Como se puede apreciar, y si bien el dotar a las máquinas de grandes volúmenes de información puede resultar relativamente sencillo, el obstáculo fundamental es que se necesitan varias formas para representar el conocimiento de sentido común.
Es decir, para cada concepto, para cada fragmento de información, se debe elegir una clase de “estructura” y una forma adecuada de relacionarlo con los demás conceptos a fin de edificar el conocimiento dentro de la memoria de la máquina [Minsky, 1986].
No es suficiente almacenar y/o catalogar unos cuantos millones o decenas de millones de hechos separados, también se necesitan sistemas aptos para combinarlos entre sí, decidir qué hechos deben tenerse en cuenta y cuáles no y contar con la capacidad de acceder a conocimientos relevantes de forma rápida, sin esfuerzo y de forma inmediata [Rich y Knight, 1994].
En pocas palabras, el problema es cómo organizar, implementar y actualizar la “base de conocimientos de sentido común”. Un sistema que interaccione con el mundo real debería “saber” algo sobre causa y efecto, tiempo y espacio, procesos y materiales.
También tendrá que contener información sobre todo el conocimiento que la mayoría de los niños saben (edificios, juguetes, comida, emociones, leyendas, ropas, herramientas), y entender las “funciones” o los “usos” de todo eso [Minsky, 1986].
La solución
A fin de dotar a una máquina con un cierto sentido común, se barajan dos posibilidades: o se le inculcan miles de millones de conceptos, o se construye un robot “bebé” que aprenda a medida que se desarrolla.
Este es el camino que siguieron dos líderes de la IA: el matemático Douglas Lenat, de la empresa Cyc, y el profesor Rodney Brooks, del MIT (Instituto Tecnológico de Massachussets). Conceptualmente sus propuestas representan dos caminos opuestos (aunque no incompatibles entre sí): Cyc es un acercamiento descendente o Top-Down y Cog es un acercamiento ascendente o Bottom-Up [Moriello, 2001].
Cyc (de enCYClopedic) es un programa que cuenta con un enorme motor de inferencias y una gran base de conocimientos. Esta última (en la cual ya se invirtieron muchos años-hombre) contiene más de un millón de “microteorías” acerca del mundo, así como deducciones hechas por la misma máquina. Lenat cree que Cyc comenzará a aprender por sí mismo y con mayor rapidez (leyendo libros, diarios y revistas electrónicas) cuando cuente con 100 millones de microteorías que cubren el conocimiento general.
Mientras tanto algunas decenas de personas examinan y analizan, oración por oración y sentencia a sentencia, artículos de libros y revistas, noticias y novelas, definiciones en enciclopedias y anuncios. Introducen en su base de conocimientos no sólo lo que se expresa explícitamente, sino también -lo que es más importante- los datos que un escritor asume que cualquier lector conoce. Es este conocimiento previo, común y generalizado (y no el contenido del texto), lo que hay que codificar.
En el otro rincón está Cog (por COGnitivo). Se trata de un ambicioso experimento inspirado en estructuras biológicas -en vez de lógicas- que consiste en dejar que un robot humanoide “experimente” y descubra por sí mismo el complejo entorno en el que está inmerso, al igual que lo hacen los niños (en lugar de poblar su memoria con una detallada descripción del mundo desde la particular perspectiva humana).
Cog es como un infante que debe aprender, por prueba y error, a ver, caminar y tomar decisiones, así como también las normas de conducta y la escala de valores de la sociedad. A través de sus sentidos artificiales (de visión, audición y tacto) absorbe información que alimenta su sentido común.
La idea es darle a la máquina unos conceptos básicos, situarla en un entorno que pueda percibir y en el que pueda actuar y, de esa manera, averiguar qué logra aprender por sí misma. Más adelante, una vez que conozca los objetos del mundo que le rodean, podrá aprender mediante las interacciones con los seres humanos.
Sergio Alejandro Moriello es periodista científico, Ingeniero en Electrónica y posgraduado en Administración Empresarial. Actualmente está finalizando la Maestría en Sistemas de Información. Es autor del libro Inteligencias Sintéticas.
Bibliografía:
1. Boden, M., comp., Filosofía de la Inteligencia Artificial. (Fondo de Cultura Económica, 1994.)
2. Calvin, W., Como piensan los cerebros. (Editorial Debate, 2001.)
3. Copeland, J., Inteligencia Artificial. Una introducción filosófica. (Alianza Editorial, 1996.)
4. Crevier, D., Inteligencia Artificial. (Acento Editorial, 1993.)
5. Freedman, D., Los hacedores de cerebros. (Editorial Andrés Bello, 1995.)
6. Ganascia, J., La Inteligencia Artificial. (Editorial Debate, 1994.)
7. García García, E., Mente y Cerebro. (Editorial Síntesis, 2001.)
8. Gardner, H., La inteligencia reformulada. (Ediciones Paidós, 2001.)
9. Johnson-Laird, Ph., El ordenador y la mente. (Ediciones Paidós, 1993, 2° edición revisada.)
10. Kurzweil, R., La era de las máquinas espirituales. (Editorial Planeta, 1999.)
11. Minsky, M., La Sociedad de la mente. (Ediciones Galápago, 1986.)
12. Moriello, S., Inteligencias Sintéticas. (Editorial Alsina, 2001.)
13. Nilsson, N., Inteligencia Artificial. Una nueva síntesis. (McGraw-Hill/ Interamericana de España, 2001.)
14. Pinker, S., Cómo funciona la mente. (Ediciones Destino, 2001.)
15. Rich, E. y Knight, K., Inteligencia Artificial. (McGraw Hill / Interamericana de España, 1994.)
Otros artículos del autor:
La inteligencia sintética se adentra en la “evolución artificial”
Los robots inteligentes tendrán también emociones
El cerebro sintético es la nueva frontera de la Inteligencia Artificial
Las máquinas conscientes son el siguiente reto tecnológico
Ingeniería genética y nanotecnología pueden alumbrar nuevas especies artificiales