Los agentes pueden definirse de varias maneras y no existe a la fecha ninguna definición universalmente aceptada. En su forma más simple, un agente es un sistema complejo adaptativo que puede sensar y actuar sobre su entorno (que puede ser real o simulado) [Moriello, 2005, p. 137].
Para Stuart Russell y Peter Norvig, un “agente” es todo aquello que puede verse como percibiendo su entorno a través de sus sensores y actuando sobre dicho entorno por medio de sus efectores [Russell y Norvig, 1996, p. 33]. Es decir, su característica principal es que “está situado” (situatedness): está inmerso dentro de un entorno local, con el cual interacciona y el cual influye –de forma directa– sobre su comportamiento [Florian, 2003] [Muñoz Moreno, 2000] [Innocenti Badano, 2000].
Un “agente autónomo” es aquel que interactúa –por sí mismo– con su entorno circundante. Para eso, debe ser capaz de percibir, razonar y actuar. En otras palabras, debe poseer adecuados sensores que le permitan recolectar la información proveniente tanto de su intorno como de su entorno (percibir); tiene que ser capaz de convertir esa información en conocimiento y poder utilizarlo para alcanzar sus objetivos (razonar); y debe disponer de apropiados efectores que le permitan modificar dicho medio ambiente (actuar) [Moriello, 2005, p. 221/2].
Agentes Inteligentes
Un “agente inteligente autónomo” es aquel que puede descubrir y registrar si una acción hecha en una situación dada fue favorable [Fritz, García Martínez y Marsiglio, 1990, p. 3] [García Martínez, 1997, p. 3]. De esta manera, puede acumular experiencias y ajustar su comportamiento a medida que va aprendiendo.
Los animales perciben su entorno (y su intorno) a través de sus sistemas sensoriales; procesan dicha información (asimilándola, clasificándola e interpretándola) a través de los circuitos neuronales de su corteza cerebral; y actúan –hacia afuera– gracias a su aparato óseomuscular y –hacia adentro– gracias a sus mecanismos homeostáticos. Pero el proceso global no es unidireccional y lineal, sino circular y cíclico: la percepción reinterpreta la realidad a través de la acción, del movimiento del cuerpo [Moriello, 2005, p. 233].
Por último, conviene mencionar que, aunque no necesariamente, un agente inteligente autónomo “está corporizado” (embodiment): tiene un cuerpo físico apto para experimentar su entorno de manera directa. Sus acciones tienen una realimentación inmediata sobre sus propias percepciones [Florian, 2003] [Muñoz Moreno, 2000] [Innocenti Badano, 2000].
Regulaciones y Controles
Se puede definir el concepto de “gobernanza” (traducción del vocablo inglés “governance”) como la manera en que un sistema complejo se auto-gobierna (se auto-guía y se auto-dirige) hacia un objetivo definido con anterioridad.
El objetivo fundamental intrínseco (o sea, el “atractor” principal) de todo sistema es su propia supervivencia; no obstante, también existen varios sub-objetivos. Así, según el psicólogo norteamericano Abraham Maslow, en el ser humano hay una jerarquía de objetivos que se intentan satisfacer: fisiológicos, de seguridad, de pertenencia, de estima y de realización personal.
Un agente autónomo presenta diferentes mecanismos de regulación que le permiten mantener su equilibrio dinámico. Dichos mecanismos están compuestos, a su vez, por diferentes circuitos de realimentación (tanto negativos como positivos).
Cuanto más complejo sea el agente, dispondrá de una mayor cantidad de mecanismos de regulación y de diferentes niveles de regulación. El conjunto de los diferentes mecanismos de regulación constituye una jerarquía y cada nivel oficia de “árbitro” sobre los mecanismos de regulación de los niveles inferiores.
Agentes Autónomos Inteligentes
Los “agentes autónomos naturales” (o sea, los animales) cuentan con la suficiente cantidad de mecanismos automáticos de regulación interna que le garantizan su supervivencia, al menos durante un período de tiempo relativamente prolongado [François, 2005].
Los “agentes inteligentes autónomos naturales” (o sea, los seres humanos, como individuos o como grupos organizados) adquirieron –con el neo-cortex de su cerebro– la capacidad de intervenir sobre algunos automatismos de las regulaciones a fin de modificarlos. Es lo que comúnmente se conoce con el nombre de “controles” [François, 2005].
Los “agentes inteligentes autónomos artificiales” (o sea, los robots inteligentes) son, en esencia, sistemas complejos que presentan una precisa estructura mecánica poliarticulada gobernada por un sofisticado sistema de control electrónico.
La clave del robot es el gobierno de cada uno de sus componentes, de manera tal de medir, controlar y modificar –con continuidad y rapidez– todas las variables que intervienen (movimiento de las extremidades, velocidad de los motores, posición del cuerpo, presión de los fluidos, aceleración de la masa) en función de los propios objetivos y del entorno en donde está inmerso [Moriello, 2005, p. 172/3].
Robots Inteligentes
Independientemente de su tipo, y a grandes rasgos, los robots están formados por diferentes subsistemas [Moriello, 2005, p. 172/3]:
· La “estructura o chasis” es la encargada de darle forma al robot y sostener sus componentes. Puede estar constituida por numerosos materiales (plásticos, metales, etc.) y tener las más variadas formas, pero habitualmente consta de partes rígidas unidas por junturas. Puede ser del tipo: “endoesqueleto” (donde la estructura es interna y los demás componentes externos) y “exoesqueleto” (donde la estructura es externa y cubre los demás elementos).
· Los “sensores” son los sistemas que le permiten al robot percibir ciertos fenómenos o eventos de su entorno local. Es el equivalente robótico de los sistemas sensoriales humanos. Pueden ser: “internos” o “propioceptivos” (proporciona información sobre el estado interno del propio robot) y “externos” o “exteroceptivos” (proporciona información sobre el entorno que rodea al robot).
· Los “efectores” son los sistemas que le permiten al robot interactuar con su entorno local. Es el equivalente robótico del sistema motor humano. Pueden ser: de “locomoción” (es la capacidad de trasladarse de un lugar a otro) y de “manipulación” (es la capacidad para manejar objetos).
· Los “controladores” o “circuitos de control” permiten el adecuado gobierno del sistema completo, acoplando continuamente las habilidades de percepción y de acción: reciben los datos de los sensores y envían comandos a los efectores. Es el equivalente robótico del cerebro humano.
· La “fuente de energía” es el sistema encargado de alimentar a todas las partes del robot. Pueden ser: “baterías” o “pilas” (si el robot se tiene que desplazar de forma autónoma), “convertidor” (si el robot es fijo o si se desplaza a escasas distancias) y “celdas solares” (si el robot es de muy bajo consumo o si se mueve por el espacio interplanetario).
La Arquitectura “de tres capas”
Como es obvio, la complejidad del entorno tiene una relación estrecha con la complejidad del sistema de control que gobierna el comportamiento de la máquina. En efecto, si el robot tiene que reaccionar rápida e inteligentemente en un ambiente dinámico y desafiante, el problema del control se torna muy difícil. Si el robot, en cambio, no necesita responder de manera rápida, se reduce la complejidad requerida para elaborar el control [Mataric, 2002].
En la “arquitectura de tres capas” se pueden considerar tres clases diferentes de procesos [Davis, 1998] [Sloman, 1996], a semejanza de la hipótesis neurológica de MacLean del cerebro trino o de la hipótesis psicológica de Freud de la interacción entre el “Ello” (o colección de impulsos instintivos), el “Super-yo” (que incluye los objetivos y las prohibiciones sociales de alto nivel) y el “Yo” (que resuelve o suprime los conflictos entre ellos) [Minsky, 2000].
Es probable que dichos procesos operen en paralelo y a través de muchos tipos de interacción. Son básicamente tres (Moriello, 2005, p. 194/5):
· “Reactivo”: Es el nivel más bajo y equivale a las partes más viejas y primitivas del cerebro humano (el paleoencéfalo o cerebro reptiliano). La información se adquiere por medio de los sensores externos e internos y se traduce en órdenes para los efectores. Se trata de procesos muy rápidos, o inmediatos, que permiten una respuesta directa a los eventos sensoriales.
· “Deliberativo”: Es el nivel intermedio y equivale a las partes un poco más modernas del cerebro humano (el mesencéfalo o cerebro mamífero). Se podría decir que es el verdadero corazón del sistema, ya que provee las capacidades de razonamiento, planificación y resolución de problemas. Son aquellos procesos que desempeñan un papel importante en lo que se conoce como “pensamiento”, más otros procesos relacionados con la gestión de las acciones de bajo nivel.
· “Reflexivo”: Es el nivel más alto y equivale a las partes más recientes del cerebro humano (el neocórtex o cerebro neomamífero). Permite la supervisión, evaluación, y algún control de procesos internos, así como la provisión de capacidades típicamente humanas (como la introspección, el aprendizaje y las decisiones explícitas para redirigir la atención). Se trata básicamente de los mecanismos de aprendizaje que, de una forma u otra, impregnan la arquitectura completa.
Sergio Alejandro Moriello es Ingeniero en Electrónica (1989), Postgrado en Periodismo Científico (1996), Postgrado en Administración Empresarial (1997), Especialista en Ingeniería en Sistemas de Información (2005), Cursando Maestría en Sistemas de Información por la UTN-FRBA (terminada la Tesis). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.
Bibliografía
1. Davis, Darryl (1998): Synthetic agents: synthetic minds? IEEE International Symposium on System, Man and Cybernetics. San Diego, EE.UU.
2. Florian, Razvan (2003): Autonomous artificial intelligent agents. Technical Report Coneural, 4 de febrero.
3. François, Charles (2005): Gobernancia, Regulación y Control. Documento interno GESI, 21 de junio.
4. Fritz, Walter; García Martínez, Ramón y Marsiglio, Antonio (1990): Sistemas Inteligentes Artificiales. Buenos Aires.
5. García Martínez, Ramón (1997): Sistemas Autónomos. Buenos Aires, Editorial Nueva Librería.
6. Innocenti Badano, Bianca (2000): Representación de la Dinámica del Cuerpo Físico de Agentes Físicos en Capacidades Atómicas. Universidad de Girona, Julio. Propuesta de Tesis de Doctorado.
7. Mataric, Maja (2002): Situated Robotics. Encyclopedia of Cognitive Science, Nature Publishers Group, Macmillian Reference Ltd.
8. Minsky, Marvin (2000): Future Models for Mind-Machines. Simposio sobre “How to Design a Functioning Mind”. AISB’2000, Universidad de Birmingham, 17-20 Abril.
9. Moriello, Sergio (2005): Inteligencia Natural y Sintética. Buenos Aires, Editorial Nueva Librería.
10. Muñoz Moreno, Israel (2000): Preliminary Studies of Dynamics of Physical Agent Ecosystems. Propuesta de Tesis de Doctorado, Universidad de Girona, Julio.
11. Russell, Stuart y Norvig, Peter (1996): Inteligencia Artificial: un enfoque moderno. México, Editorial Prentice Hall Hispanoamericana.
12. Sloman, Aaron (1996): What sort of architecture is required for a human-like agent? Cognitive Modeling Workshop, AAAI96, agosto.
Para Stuart Russell y Peter Norvig, un “agente” es todo aquello que puede verse como percibiendo su entorno a través de sus sensores y actuando sobre dicho entorno por medio de sus efectores [Russell y Norvig, 1996, p. 33]. Es decir, su característica principal es que “está situado” (situatedness): está inmerso dentro de un entorno local, con el cual interacciona y el cual influye –de forma directa– sobre su comportamiento [Florian, 2003] [Muñoz Moreno, 2000] [Innocenti Badano, 2000].
Un “agente autónomo” es aquel que interactúa –por sí mismo– con su entorno circundante. Para eso, debe ser capaz de percibir, razonar y actuar. En otras palabras, debe poseer adecuados sensores que le permitan recolectar la información proveniente tanto de su intorno como de su entorno (percibir); tiene que ser capaz de convertir esa información en conocimiento y poder utilizarlo para alcanzar sus objetivos (razonar); y debe disponer de apropiados efectores que le permitan modificar dicho medio ambiente (actuar) [Moriello, 2005, p. 221/2].
Agentes Inteligentes
Un “agente inteligente autónomo” es aquel que puede descubrir y registrar si una acción hecha en una situación dada fue favorable [Fritz, García Martínez y Marsiglio, 1990, p. 3] [García Martínez, 1997, p. 3]. De esta manera, puede acumular experiencias y ajustar su comportamiento a medida que va aprendiendo.
Los animales perciben su entorno (y su intorno) a través de sus sistemas sensoriales; procesan dicha información (asimilándola, clasificándola e interpretándola) a través de los circuitos neuronales de su corteza cerebral; y actúan –hacia afuera– gracias a su aparato óseomuscular y –hacia adentro– gracias a sus mecanismos homeostáticos. Pero el proceso global no es unidireccional y lineal, sino circular y cíclico: la percepción reinterpreta la realidad a través de la acción, del movimiento del cuerpo [Moriello, 2005, p. 233].
Por último, conviene mencionar que, aunque no necesariamente, un agente inteligente autónomo “está corporizado” (embodiment): tiene un cuerpo físico apto para experimentar su entorno de manera directa. Sus acciones tienen una realimentación inmediata sobre sus propias percepciones [Florian, 2003] [Muñoz Moreno, 2000] [Innocenti Badano, 2000].
Regulaciones y Controles
Se puede definir el concepto de “gobernanza” (traducción del vocablo inglés “governance”) como la manera en que un sistema complejo se auto-gobierna (se auto-guía y se auto-dirige) hacia un objetivo definido con anterioridad.
El objetivo fundamental intrínseco (o sea, el “atractor” principal) de todo sistema es su propia supervivencia; no obstante, también existen varios sub-objetivos. Así, según el psicólogo norteamericano Abraham Maslow, en el ser humano hay una jerarquía de objetivos que se intentan satisfacer: fisiológicos, de seguridad, de pertenencia, de estima y de realización personal.
Un agente autónomo presenta diferentes mecanismos de regulación que le permiten mantener su equilibrio dinámico. Dichos mecanismos están compuestos, a su vez, por diferentes circuitos de realimentación (tanto negativos como positivos).
Cuanto más complejo sea el agente, dispondrá de una mayor cantidad de mecanismos de regulación y de diferentes niveles de regulación. El conjunto de los diferentes mecanismos de regulación constituye una jerarquía y cada nivel oficia de “árbitro” sobre los mecanismos de regulación de los niveles inferiores.
Agentes Autónomos Inteligentes
Los “agentes autónomos naturales” (o sea, los animales) cuentan con la suficiente cantidad de mecanismos automáticos de regulación interna que le garantizan su supervivencia, al menos durante un período de tiempo relativamente prolongado [François, 2005].
Los “agentes inteligentes autónomos naturales” (o sea, los seres humanos, como individuos o como grupos organizados) adquirieron –con el neo-cortex de su cerebro– la capacidad de intervenir sobre algunos automatismos de las regulaciones a fin de modificarlos. Es lo que comúnmente se conoce con el nombre de “controles” [François, 2005].
Los “agentes inteligentes autónomos artificiales” (o sea, los robots inteligentes) son, en esencia, sistemas complejos que presentan una precisa estructura mecánica poliarticulada gobernada por un sofisticado sistema de control electrónico.
La clave del robot es el gobierno de cada uno de sus componentes, de manera tal de medir, controlar y modificar –con continuidad y rapidez– todas las variables que intervienen (movimiento de las extremidades, velocidad de los motores, posición del cuerpo, presión de los fluidos, aceleración de la masa) en función de los propios objetivos y del entorno en donde está inmerso [Moriello, 2005, p. 172/3].
Robots Inteligentes
Independientemente de su tipo, y a grandes rasgos, los robots están formados por diferentes subsistemas [Moriello, 2005, p. 172/3]:
· La “estructura o chasis” es la encargada de darle forma al robot y sostener sus componentes. Puede estar constituida por numerosos materiales (plásticos, metales, etc.) y tener las más variadas formas, pero habitualmente consta de partes rígidas unidas por junturas. Puede ser del tipo: “endoesqueleto” (donde la estructura es interna y los demás componentes externos) y “exoesqueleto” (donde la estructura es externa y cubre los demás elementos).
· Los “sensores” son los sistemas que le permiten al robot percibir ciertos fenómenos o eventos de su entorno local. Es el equivalente robótico de los sistemas sensoriales humanos. Pueden ser: “internos” o “propioceptivos” (proporciona información sobre el estado interno del propio robot) y “externos” o “exteroceptivos” (proporciona información sobre el entorno que rodea al robot).
· Los “efectores” son los sistemas que le permiten al robot interactuar con su entorno local. Es el equivalente robótico del sistema motor humano. Pueden ser: de “locomoción” (es la capacidad de trasladarse de un lugar a otro) y de “manipulación” (es la capacidad para manejar objetos).
· Los “controladores” o “circuitos de control” permiten el adecuado gobierno del sistema completo, acoplando continuamente las habilidades de percepción y de acción: reciben los datos de los sensores y envían comandos a los efectores. Es el equivalente robótico del cerebro humano.
· La “fuente de energía” es el sistema encargado de alimentar a todas las partes del robot. Pueden ser: “baterías” o “pilas” (si el robot se tiene que desplazar de forma autónoma), “convertidor” (si el robot es fijo o si se desplaza a escasas distancias) y “celdas solares” (si el robot es de muy bajo consumo o si se mueve por el espacio interplanetario).
La Arquitectura “de tres capas”
Como es obvio, la complejidad del entorno tiene una relación estrecha con la complejidad del sistema de control que gobierna el comportamiento de la máquina. En efecto, si el robot tiene que reaccionar rápida e inteligentemente en un ambiente dinámico y desafiante, el problema del control se torna muy difícil. Si el robot, en cambio, no necesita responder de manera rápida, se reduce la complejidad requerida para elaborar el control [Mataric, 2002].
En la “arquitectura de tres capas” se pueden considerar tres clases diferentes de procesos [Davis, 1998] [Sloman, 1996], a semejanza de la hipótesis neurológica de MacLean del cerebro trino o de la hipótesis psicológica de Freud de la interacción entre el “Ello” (o colección de impulsos instintivos), el “Super-yo” (que incluye los objetivos y las prohibiciones sociales de alto nivel) y el “Yo” (que resuelve o suprime los conflictos entre ellos) [Minsky, 2000].
Es probable que dichos procesos operen en paralelo y a través de muchos tipos de interacción. Son básicamente tres (Moriello, 2005, p. 194/5):
· “Reactivo”: Es el nivel más bajo y equivale a las partes más viejas y primitivas del cerebro humano (el paleoencéfalo o cerebro reptiliano). La información se adquiere por medio de los sensores externos e internos y se traduce en órdenes para los efectores. Se trata de procesos muy rápidos, o inmediatos, que permiten una respuesta directa a los eventos sensoriales.
· “Deliberativo”: Es el nivel intermedio y equivale a las partes un poco más modernas del cerebro humano (el mesencéfalo o cerebro mamífero). Se podría decir que es el verdadero corazón del sistema, ya que provee las capacidades de razonamiento, planificación y resolución de problemas. Son aquellos procesos que desempeñan un papel importante en lo que se conoce como “pensamiento”, más otros procesos relacionados con la gestión de las acciones de bajo nivel.
· “Reflexivo”: Es el nivel más alto y equivale a las partes más recientes del cerebro humano (el neocórtex o cerebro neomamífero). Permite la supervisión, evaluación, y algún control de procesos internos, así como la provisión de capacidades típicamente humanas (como la introspección, el aprendizaje y las decisiones explícitas para redirigir la atención). Se trata básicamente de los mecanismos de aprendizaje que, de una forma u otra, impregnan la arquitectura completa.
Sergio Alejandro Moriello es Ingeniero en Electrónica (1989), Postgrado en Periodismo Científico (1996), Postgrado en Administración Empresarial (1997), Especialista en Ingeniería en Sistemas de Información (2005), Cursando Maestría en Sistemas de Información por la UTN-FRBA (terminada la Tesis). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.
Bibliografía
1. Davis, Darryl (1998): Synthetic agents: synthetic minds? IEEE International Symposium on System, Man and Cybernetics. San Diego, EE.UU.
2. Florian, Razvan (2003): Autonomous artificial intelligent agents. Technical Report Coneural, 4 de febrero.
3. François, Charles (2005): Gobernancia, Regulación y Control. Documento interno GESI, 21 de junio.
4. Fritz, Walter; García Martínez, Ramón y Marsiglio, Antonio (1990): Sistemas Inteligentes Artificiales. Buenos Aires.
5. García Martínez, Ramón (1997): Sistemas Autónomos. Buenos Aires, Editorial Nueva Librería.
6. Innocenti Badano, Bianca (2000): Representación de la Dinámica del Cuerpo Físico de Agentes Físicos en Capacidades Atómicas. Universidad de Girona, Julio. Propuesta de Tesis de Doctorado.
7. Mataric, Maja (2002): Situated Robotics. Encyclopedia of Cognitive Science, Nature Publishers Group, Macmillian Reference Ltd.
8. Minsky, Marvin (2000): Future Models for Mind-Machines. Simposio sobre “How to Design a Functioning Mind”. AISB’2000, Universidad de Birmingham, 17-20 Abril.
9. Moriello, Sergio (2005): Inteligencia Natural y Sintética. Buenos Aires, Editorial Nueva Librería.
10. Muñoz Moreno, Israel (2000): Preliminary Studies of Dynamics of Physical Agent Ecosystems. Propuesta de Tesis de Doctorado, Universidad de Girona, Julio.
11. Russell, Stuart y Norvig, Peter (1996): Inteligencia Artificial: un enfoque moderno. México, Editorial Prentice Hall Hispanoamericana.
12. Sloman, Aaron (1996): What sort of architecture is required for a human-like agent? Cognitive Modeling Workshop, AAAI96, agosto.