La Inteligencia Artificial interpreta el mundo como nosotros

El cerebro humano es el que imita a los ordenadores y no al revés


Siempre pensamos que los ordenadores imitaban al cerebro humano, pero una nueva investigación ha descubierto que en realidad somos los humanos los que pensamos como los ordenadores. Nosotros y la Inteligencia Artificial interpretamos el mundo de la misma forma.


Eva Reneses
28/03/2019

Un nuevo estudio, realizado por investigadores de la Universidad Johns Hopkins, en Estados Unidos, ha demostrado que las personas tendemos a hacer las mismas interpretaciones que la Inteligencia Artificial (IA) sobre las imágenes que la confunden.

Los resultados de esta investigación, publicados en Nature Communications, sugieren que los ordenadores modernos pueden no ser tan diferentes de los humanos en el procesamiento de las imágenes, tal como se pensaba hasta ahora.
 

Los avances en IA continúan reduciendo la brecha entre las capacidades visuales de las personas y de las máquinas. Coincidir en sus clasificaciones erróneas de la IA puede permitirnos anticipar sus posibles fallos en el reconocimiento de objetos.
 

Por lo general, los estudios sobre IA se basan en intentar reproducir el funcionamiento del cerebro humano y su forma de analizar la información. "Nuestro proyecto hace lo contrario: nos preguntamos si las personas pueden pensar como las ordenadores", explica Chaz Firestone, del Departamento de Ciencias Psicológicas y Cerebrales de la Universidad Johns Hopkins, en un comunicado.
 

Dificultades en el reconocimiento de imágenes
 

Los sistemas de IAl han sido, durante mucho tiempo, mejores que las personas para resolver problemas matemáticos o recordar grandes cantidades de información. Pero, durante décadas, los humanos han tenido una ventaja en el reconocimiento de objetos cotidianos. En algunos casos, solo es necesario cambiar algunos píxeles para que un ordenador confunda, por ejemplo, una manzana con un automóvil. Estas máquinas estarían cometiendo errores impensables en un ser humano.
 

Sin embargo, las redes neuronale artificiales, que imitan al cerebro, se han acercado recientemente a la capacidad humana para identificar objetos, lo que ha llevado a avances tecnológicos tales como el desarrollo de los programas de reconocimiento facial o sistemas de IA que ayudan a los médicos a detectar anomalías en radiografías.
 

Pero, incluso con estos avances tecnológicos, aún hay puntos débiles. Existen imágenes creadas a propósito para poner a prueba a la IA (“adversarial images” o “imágenes contradictorias”), y que las redes neuronales artificiales no pueden analizar correctamente. Estas imágenes son un gran problema porque podrían ser explotadas por piratas informáticos y causar riesgos de seguridad.


¿Vemos lo mismo que ve la IA?
 

En este nuevo estudio, los investigadores comprobaron por primera vez si los humanos también eran engañados por este tipo de imágenes. Firestone y el estudiante de Ciencias Cognitivas Zhenglong Zhou, pidieron a un total de 1.800 sujetos que clasificaran una serie de imágenes que ya habían sido mostradas a un ordenador, con las mismas opciones de etiquetado.

En concreto, las personas tenían dos opciones para clasificar cada imagen: una palabra aleatoria y la clasificación que la IA había realizado anteriormente.

El resultado fue que las respuestas de las personas coincidieron en un 75 por ciento con las conclusiones de los ordenadores. Y más aún: el 98 por ciento de las personas tiende a responder como lo hacen los ordenadores. 

 

Los ordenadores confundieron las imágenes de arriba (de izquierda a derecha) con un reloj digital, un crucigrama, un pingüino rey y un rifle de asalto. Imagen: Johns Hopkins University.

En la siguiente fase de la investigación, los participantes tenían que escoger entre la primera respuesta que había dado la máquina y su siguiente mejor conjetura. Las personas volvieron a validar las opciones del ordenador, y el 91 por ciento de los evaluados coincidió con la primera opción de la máquina.

Incluso cuando los investigadores hicieron que la gente adivinara entre 48 opciones, una proporción abrumadora de los sujetos eligió lo que la máquina escogió, muy por encima de las tasas de probabilidad aleatoria.

"Nuestro estudio brinda una nueva perspectiva, junto con un nuevo paradigma experimental que hay que explorar", apunta Zhou.


Referencia

Humans can decipher adversarial images. Z. Zhou, C. Firestone. Nature Communications, 22 March 2019. DOI: https://doi.org/10.1038/s41467-019-08931-6.




Eva Reneses
Artículo leído 4639 veces



Más contenidos