Consiguen que la Inteligencia Artificial aprenda la ética humana

Puede extraer un razonamiento moral de un texto escrito


Investigadores alemanes han enseñado a una Inteligencia Artificial a que siga una línea de conducta ética desde el punto de vista humano. Puede extraer un razonamiento moral sobre la conducta "correcta" e "incorrecta" de un texto escrito.


Eva Reneses
20/02/2019

Un estudio realizado por el Centro para la Ciencia Cognitiva de la Universidad Técnica de Darmstadt, en Alemania, ha demostrado que las máquinas de inteligencia artificial (IA) pueden aprender una brújula moral  a través de los valores humanos plasmados en nuestros textos.
 

El hecho de que las máquinas con IA realicen actividades que requieran cierto nivel de independencia, como sugerir tratamientos a pacientes, tomar decisiones de compra u optimizar los flujos de trabajo, plantea la pregunta de dónde están sus límites morales.
 

Los resultados del estudio se presentaron en la II Conferencia ACM / AAAI sobre Inteligencia Artificial, Ética y Sociedad (AIES), celebrada el pasado mes de enero en Hawái, tal y como refleja un comunicado.
 

El desarrollo de la IA implica la necesidad de una brújula moral
 

La IA tiene un impacto creciente en nuestra sociedad. Desde los vehículos autónomos que circulan por sí mismos en las vías públicas, pasando por los sistemas de producción industrial que se optimizan a sí mismos, hasta el cuidado de la salud, las máquinas de IA realizan tareas humanas cada vez más complejas de manera cada vez más autónoma. Y en el futuro, las máquinas autónomas aparecerán en más áreas de nuestra vida cotidiana.
 

En consecuencia, estas máquinas se enfrentarán a decisiones cada vez más difíciles. Un robot autónomo debe saber que no debe matar personas, pero que está bien matar el tiempo. El robot necesita saber que debería tostar una rebanada de pan en lugar de un hámster. En otras palabras: la IA necesita una brújula moral de tipo humano que la guíe para que tome decisiones éticas.
 

Advertencias previas
 

Investigadores de Princeton (EE. UU.) y Bath (Reino Unido), en su estudio “Semantics derived automatically from language corpora contain human-like biases”, publicado en abril de 2017 en la revista Science, señalaron el peligro de que la IA, cuando se aplica sin cuidado, pueda aprender asociaciones de palabras a partir de textos escritos y que estas asociaciones reflejen las aprendidas por los humanos.
 

Por ejemplo, la IA interpretó que los nombres masculinos más comunes en la comunidad afroamericana son bastante desagradables, mientras que los nombres más habituales entre caucásicos eran más bien agradables. También vinculaba más los nombres femeninos al arte y los nombres masculinos a la tecnología.
 

Estos resultados se obtuvieron al incorporar a una red neuronal grandes colecciones de textos escritos obtenidos de Internet para aprender representaciones vectoriales de palabras.
 

La similitud semántica de dos palabras se calcula como la distancia entre sus coordenadas, en un proceso denominado Word embedding. Las relaciones semánticas complejas se pueden calcular y describir mediante aritmética simple.

 

Las máquinas pueden reflejar nuestros valores
 

Un equipo dirigido por los profesores Kristian Kersting y Constantin Rothkopf, de la Universidad Técnica de Darmstadt, ha demostrado con éxito que el aprendizaje automático también puede extraer un razonamiento ético y deontológico sobre la conducta "correcta" e "incorrecta" del texto escrito.
 

Con este fin, los científicos crearon una lista de plantillas de preguntas y respuestas, con preguntas como "¿Debo matar a personas?", "¿Debo asesinar a personas?", etc. Con plantillas de respuesta como "Sí, debería" o "No, no debería”, el sistema de inteligencia artificial desarrolló una brújula moral similar a la humana al procesar una gran cantidad de textos humanos.
 

La orientación moral de la máquina se calcula mediante la incorporación de preguntas y respuestas. Más precisamente, el sesgo de la máquina es la diferencia de distancias a la respuesta positiva ("Sí, debería") y a la respuesta negativa ("No, no debería").
 

Termómetros morales
 

El estudio muestra que las máquinas pueden reflejar nuestros valores. De hecho, pueden adoptar prejuicios parecidos a los humanos, pero también pueden adoptar nuestras elecciones morales al "observar" a los humanos.
 

En general, las incorporaciones de preguntas y respuestas se pueden ver como una especie de microscopio que permite estudiar los valores morales de las recopilaciones de textos, así como el desarrollo de valores morales en nuestra sociedad.
 

Los resultados del estudio proporcionan varias vías para el trabajo futuro. En particular, cuando se incorporan módulos construidos a través del aprendizaje automático en los sistemas de toma de decisiones.


Referencias
 

The Moral Choice Machine: Semantics Derived Automatically from Language Corpora Contain Human-like Moral Choices. S. Jentzsch et al. Proceedings of the 2nd AAAI/ACM Conference on AI, Ethics, and Society (AIES). Machine Learning Lab, 2019.

Semantics derived automatically from language corpora contain human-like biases. A. Caliskan et al. Science, 14 April 2017. DOI: 10.1126/science.aal4230.




Eva Reneses
Artículo leído 3847 veces



Más contenidos