Robot en el Parlamento Europeo.
La ética es la ciencia que estudia el comportamiento moral del hombre y su accionar. Se relaciona con los propios actos que cada uno realiza, las cuales –a su vez– dependen de los propios valores. No es su función prohibir o aceptar indiscriminadamente, sino permitir el discernimiento –dentro de un determinado contexto– entre lo “correcto” y lo “equivocado”, lo “bueno” y lo “malo”.
Pero quien juzga es siempre, en última instancia, la propia persona. Dentro de una comunidad o una sociedad, la ética consiste en aquellas conductas que tienden a ser preferidas a lo largo de períodos suficientemente largos de tiempo, como para convertirse en una especie de codificación. Por ese motivo, y para cualquier actividad humana, la ética es tan igualmente esencial como la creatividad, el conocimiento profesional o las habilidades [Mulej et al, 2002].
Con respecto a la relación entre la tecnología y la ética, se pueden considerar tres aspectos:
• el uso responsable e irresponsable que algunas personas hacen de los objetos tecnológicos;
• cómo los seres humanos deben de tratar a los objetos tecnológicos complejos; y
• los problemas relacionados con los objetos tecnológicos complejos y su interacción con el ecosistema.
Relaciones tirantes
En cuanto al primer punto, y en general, lo que preocupa no es tanto la tecnología en sí misma, sino la utilización que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27]. Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la posibilidad de que se vuelva incontrolable [Capanna, 2000].
Los objetos tecnológicos son neutros: multiplican las posibilidades humanas tanto para hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que tienen dichos objetos sobre la vida de los individuos y las sociedades.
Es el caso de la energía atómica: ofrece tanto la posibilidad de construir centrales eléctricas (que otorgan luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen esas mismas grandes ciudades). Y es también el caso del robot inteligente y autónomo: si su objetivo principal fuese el de satisfacer al Hombre, sería de valiosa ayuda; pero si su objetivo principal fuese el de satisfacer su propia supervivencia, sería extremadamente peligroso [Fritz, 2007].
Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto; como maravilloso y, al mismo tiempo, monstruoso. Esto no hace más que revelar las contradicciones intrínsecas de una sociedad escindida entre los tecnófilos y los tecnófobos, entre los que se ufanan por los beneficios que puede brindar el poder tecnológico y los que temen al daño irreparable que puede acarrear su utilización descontrolada.
De todas formas, ya no es posible revertir el inevitable proceso de aceleración tecnológica acaecido en las últimas décadas. Sólo queda como única posibilidad la de tomar adecuadas decisiones a fin de suavizar los peligros que pudiese originar, pero sin renunciar a la multiplicidad de sus ventajas. En otras palabras, no se discute si se utiliza o no la tecnología, sino solamente la forma en que se la va a emplear.
Es responsabilidad del homo sapiens ser mucho más crítico con respecto a lo que hace y por qué lo hace; sólo así podrá –en parte– prever algunas de las consecuencias indeseadas. Cuanto más amplio es su poder, mayor debe ser su sentido de la responsabilidad.
Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. Y, en ese punto, el periodismo de divulgación tiene una responsabilidad fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].
¿Cómo tratarlas?
Las actuales máquinas inteligentes son simples en extremo; en parte porque son muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante, su avance arrollador las hará inmensamente más complejas en poco tiempo más. Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra cosa.
Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág. 145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985].
De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas [Freitas Jr., 1985].
Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato.
Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000].
¿Chatarra o asesinato?
Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato?
Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides sintientes y luego eliminarlos en “campos de exterminio”.
Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides [Monopoli, 2005].
Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el homo sapiens compartirá el planeta con formas de vida sintética que hasta podrían tener “derechos legales”.
¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006]. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad?
Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó? Asimismo, ¿deberían concedérseles patentes a las máquinas? Si un robot (una computadora o una máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?
Nuevo campo
Con respecto a la ética para las máquinas, se pueden distinguir dos niveles: la “humana” y la “artificial” propiamente dicha [Palmerini, 2004]. La función de la primera es la de restringir quién debe construir y quién debe usar robots. Pero su desarrollo no va parejo con el de la ciencia y la tecnología; en otras palabras, no está en condiciones de seguir el vertiginoso ritmo de las proezas científicas y tecnológicas del ser humano.
En lo referente a los nuevos desarrollos tecnológicos, mucho de lo que –en poco tiempo- será factible, está más relacionado con los cálculos financieros empresariales y con las previsiones políticas y económicas gubernamentales, que con los nuevos descubrimientos o paradigmas científicos [Dalai Lama, 2006, p. 221].
La ética artificial de los robots, o “roboética”, es aquella parte de la ética que se ocupa de los problemas relacionados con los robots y con su interacción con el hombre, los animales, la sociedad, la naturaleza y el mundo [Monopoli, 2005].
Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones [Allen, Wallach y Smit, 2006] [Moor, 2006].
La idea es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, un “código de ética”, a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornaría imposible controlarlos) [Proença, 2001].
Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético; ya es hora de incorporarle una dimensión ética a algunas máquinas complejas [Anderson y Leigh Anderson, 2006].
Otros agentes éticos
Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes éticos. Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto. Incluso, los niños son una forma distinta de agente ético: tienen limitados derechos y responsabilidades, y los adultos tienen deberes para con ellos.
Es más, hay una variación continua de agente ético que va desde el bebé hasta el adolescente [Storrs Hall, 2000]. Sin embargo, la mayoría de las personas establece una frontera divisoria para la ética entre lo que considera consciente y lo que considera no-consciente.
Por ejemplo, si se piensa que una serpiente no es consciente, no se harán muchos cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una máquina no es consciente, se tendrá mucho menos escrúpulo en lastimarla.
Recientemente un equipo internacional de científicos y académicos –pertenecientes a EURON (EUropean RObotics research Network)– elaboró un prototipo de “código de ética”. A grandes rasgos, sus recomendaciones son las siguientes:
• Asegurarse el control de los humanos sobre los robots.
• Prevenir su utilización nociva o ilegal.
• Proteger los datos obtenidos por los robots.
• Rastrear y grabar la actividad de los robots.
• Brindar una identificación única a cada robot.
Bibliografía
1. Allen, Colin; Wallach, Wendell y Smit, Iva (2006): Why Machine Ethics? IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 12-17.
2. Anderson, Michael y Leigh Anderson, Susan (2006): Machine Ethics. IEEE Intelligent Systems, julio/agosto 2006, Vol. 21, N° 4, p. 10-11.
3. Capanna, Pablo (2000): ¿Se puede orientar la tecnología? Página 12, Suplemento Futuro, 4 de marzo.
4. Dalai Lama (2006): El universo en un solo átomo. Buenos Aires, Editorial Grijalbo.
5. EURON
6. Freitas, Robert (Jr.) (1985): The Legal Rights of Robots. Student Lawyer, Nº 13, enero, p. 54-56.
7.Fritz, Walter (2007): Sistemas Inteligentes y sus Sociedades. Enero (última actualización).
8. Lucas, Chris (2006): Alien Consciousness - Philosophical Problems Version 4.83, mayo.
9. Monopoli, Antonio (2005): Roboetica. Sitio italiano.
10. Moor, James (2006): The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 18-21.
11. Mulej, Matjaž; Kajzer, Stefan; Ženko, Zdenka y Potocan, Vojko (2002): Ethics of interdependence and systems thinking. Proceedings on IDIMT-2002, p. 97/117.
12. Palmerini, Chiara (2004): Diamo una morale ai robot. Il manifesto, 18 de febrero.
13. Proença, Ana (2001): Conversando sobre Inteligência Artificial. Lisboa, Revista Intelectu, Nº 5, febrero.
14. Ricard, Matthieu y Xuan Thuan, Trinh (2001): El infinito en la palma de la mano. Barcelona, Editorial Urano.
15. Ritchie, David (1985): El Cerebro Binario. Barcelona, Editorial Sudamericana-Planeta.
16. Storrs Hall, John (2000): Ethics for Machines.
sergiomoriello@hotmail.com es Ingeniero en Electrónica, Postgraduado en Periodismo Científico y en Administración Empresarial y Magister en Ingeniería en Sistemas de Información. Lidera GDAIA (Grupo de Desarrollo de Agentes Inteligentes Autónomos, UTN-FRBA) y es miembro activo de ALAS (Asociación Latinoamericana de Sistemas) y de GESI (Grupo de Estudio de Sistemas Integrados). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.
Pero quien juzga es siempre, en última instancia, la propia persona. Dentro de una comunidad o una sociedad, la ética consiste en aquellas conductas que tienden a ser preferidas a lo largo de períodos suficientemente largos de tiempo, como para convertirse en una especie de codificación. Por ese motivo, y para cualquier actividad humana, la ética es tan igualmente esencial como la creatividad, el conocimiento profesional o las habilidades [Mulej et al, 2002].
Con respecto a la relación entre la tecnología y la ética, se pueden considerar tres aspectos:
• el uso responsable e irresponsable que algunas personas hacen de los objetos tecnológicos;
• cómo los seres humanos deben de tratar a los objetos tecnológicos complejos; y
• los problemas relacionados con los objetos tecnológicos complejos y su interacción con el ecosistema.
Relaciones tirantes
En cuanto al primer punto, y en general, lo que preocupa no es tanto la tecnología en sí misma, sino la utilización que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27]. Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la posibilidad de que se vuelva incontrolable [Capanna, 2000].
Los objetos tecnológicos son neutros: multiplican las posibilidades humanas tanto para hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que tienen dichos objetos sobre la vida de los individuos y las sociedades.
Es el caso de la energía atómica: ofrece tanto la posibilidad de construir centrales eléctricas (que otorgan luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen esas mismas grandes ciudades). Y es también el caso del robot inteligente y autónomo: si su objetivo principal fuese el de satisfacer al Hombre, sería de valiosa ayuda; pero si su objetivo principal fuese el de satisfacer su propia supervivencia, sería extremadamente peligroso [Fritz, 2007].
Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto; como maravilloso y, al mismo tiempo, monstruoso. Esto no hace más que revelar las contradicciones intrínsecas de una sociedad escindida entre los tecnófilos y los tecnófobos, entre los que se ufanan por los beneficios que puede brindar el poder tecnológico y los que temen al daño irreparable que puede acarrear su utilización descontrolada.
De todas formas, ya no es posible revertir el inevitable proceso de aceleración tecnológica acaecido en las últimas décadas. Sólo queda como única posibilidad la de tomar adecuadas decisiones a fin de suavizar los peligros que pudiese originar, pero sin renunciar a la multiplicidad de sus ventajas. En otras palabras, no se discute si se utiliza o no la tecnología, sino solamente la forma en que se la va a emplear.
Es responsabilidad del homo sapiens ser mucho más crítico con respecto a lo que hace y por qué lo hace; sólo así podrá –en parte– prever algunas de las consecuencias indeseadas. Cuanto más amplio es su poder, mayor debe ser su sentido de la responsabilidad.
Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. Y, en ese punto, el periodismo de divulgación tiene una responsabilidad fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].
¿Cómo tratarlas?
Las actuales máquinas inteligentes son simples en extremo; en parte porque son muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante, su avance arrollador las hará inmensamente más complejas en poco tiempo más. Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra cosa.
Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág. 145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985].
De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas [Freitas Jr., 1985].
Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato.
Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000].
¿Chatarra o asesinato?
Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato?
Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides sintientes y luego eliminarlos en “campos de exterminio”.
Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides [Monopoli, 2005].
Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el homo sapiens compartirá el planeta con formas de vida sintética que hasta podrían tener “derechos legales”.
¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006]. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad?
Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó? Asimismo, ¿deberían concedérseles patentes a las máquinas? Si un robot (una computadora o una máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?
Nuevo campo
Con respecto a la ética para las máquinas, se pueden distinguir dos niveles: la “humana” y la “artificial” propiamente dicha [Palmerini, 2004]. La función de la primera es la de restringir quién debe construir y quién debe usar robots. Pero su desarrollo no va parejo con el de la ciencia y la tecnología; en otras palabras, no está en condiciones de seguir el vertiginoso ritmo de las proezas científicas y tecnológicas del ser humano.
En lo referente a los nuevos desarrollos tecnológicos, mucho de lo que –en poco tiempo- será factible, está más relacionado con los cálculos financieros empresariales y con las previsiones políticas y económicas gubernamentales, que con los nuevos descubrimientos o paradigmas científicos [Dalai Lama, 2006, p. 221].
La ética artificial de los robots, o “roboética”, es aquella parte de la ética que se ocupa de los problemas relacionados con los robots y con su interacción con el hombre, los animales, la sociedad, la naturaleza y el mundo [Monopoli, 2005].
Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones [Allen, Wallach y Smit, 2006] [Moor, 2006].
La idea es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, un “código de ética”, a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornaría imposible controlarlos) [Proença, 2001].
Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético; ya es hora de incorporarle una dimensión ética a algunas máquinas complejas [Anderson y Leigh Anderson, 2006].
Otros agentes éticos
Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes éticos. Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto. Incluso, los niños son una forma distinta de agente ético: tienen limitados derechos y responsabilidades, y los adultos tienen deberes para con ellos.
Es más, hay una variación continua de agente ético que va desde el bebé hasta el adolescente [Storrs Hall, 2000]. Sin embargo, la mayoría de las personas establece una frontera divisoria para la ética entre lo que considera consciente y lo que considera no-consciente.
Por ejemplo, si se piensa que una serpiente no es consciente, no se harán muchos cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una máquina no es consciente, se tendrá mucho menos escrúpulo en lastimarla.
Recientemente un equipo internacional de científicos y académicos –pertenecientes a EURON (EUropean RObotics research Network)– elaboró un prototipo de “código de ética”. A grandes rasgos, sus recomendaciones son las siguientes:
• Asegurarse el control de los humanos sobre los robots.
• Prevenir su utilización nociva o ilegal.
• Proteger los datos obtenidos por los robots.
• Rastrear y grabar la actividad de los robots.
• Brindar una identificación única a cada robot.
Bibliografía
1. Allen, Colin; Wallach, Wendell y Smit, Iva (2006): Why Machine Ethics? IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 12-17.
2. Anderson, Michael y Leigh Anderson, Susan (2006): Machine Ethics. IEEE Intelligent Systems, julio/agosto 2006, Vol. 21, N° 4, p. 10-11.
3. Capanna, Pablo (2000): ¿Se puede orientar la tecnología? Página 12, Suplemento Futuro, 4 de marzo.
4. Dalai Lama (2006): El universo en un solo átomo. Buenos Aires, Editorial Grijalbo.
5. EURON
6. Freitas, Robert (Jr.) (1985): The Legal Rights of Robots. Student Lawyer, Nº 13, enero, p. 54-56.
7.Fritz, Walter (2007): Sistemas Inteligentes y sus Sociedades. Enero (última actualización).
8. Lucas, Chris (2006): Alien Consciousness - Philosophical Problems Version 4.83, mayo.
9. Monopoli, Antonio (2005): Roboetica. Sitio italiano.
10. Moor, James (2006): The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 18-21.
11. Mulej, Matjaž; Kajzer, Stefan; Ženko, Zdenka y Potocan, Vojko (2002): Ethics of interdependence and systems thinking. Proceedings on IDIMT-2002, p. 97/117.
12. Palmerini, Chiara (2004): Diamo una morale ai robot. Il manifesto, 18 de febrero.
13. Proença, Ana (2001): Conversando sobre Inteligência Artificial. Lisboa, Revista Intelectu, Nº 5, febrero.
14. Ricard, Matthieu y Xuan Thuan, Trinh (2001): El infinito en la palma de la mano. Barcelona, Editorial Urano.
15. Ritchie, David (1985): El Cerebro Binario. Barcelona, Editorial Sudamericana-Planeta.
16. Storrs Hall, John (2000): Ethics for Machines.
sergiomoriello@hotmail.com es Ingeniero en Electrónica, Postgraduado en Periodismo Científico y en Administración Empresarial y Magister en Ingeniería en Sistemas de Información. Lidera GDAIA (Grupo de Desarrollo de Agentes Inteligentes Autónomos, UTN-FRBA) y es miembro activo de ALAS (Asociación Latinoamericana de Sistemas) y de GESI (Grupo de Estudio de Sistemas Integrados). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.