Imagen: Timur Anikin. Fuente: PhotoXpress.
Los ordenadores son instrumentos poderosos para clasificar, visualizar y buscar información. Sin embargo, son simplemente el medio a través del que accedemos a esos grandes volúmenes de datos. “En realidad necesitamos la interacción hombre-máquina para que funcionen bien”, asegura Rob Nowak, profesor de Ingeniería Eléctrica e Informática en la Universidad de Wisconsin-Madison (UW), Estados Unidos.
En un comunicado de la UW, el investigador señala que “no se puede dar más de una tonelada de datos en bruto y dejar que la máquina trabaje”. Como en todos los ámbitos, cada uno tiene sus puntos fuertes y débiles. A diferencia de los ordenadores, los humanos no se pueden actualizar. Por el contrario, los equipos requieren gran velocidad para este tipo de tareas, lo que supone un aumento de los costos.
Así las cosas, el objetivo de Nowak es mejorar los sistemas interactivos para que hombre y máquina puedan abordan los problemas de Big Data juntos. Hasta ahora lo habitual es que, quienes categorizan datos, reciban grandes volúmenes de forma aleatoria para etiquetar.
En función a esas etiquetas, el equipo construye una base de comparación para el etiquetado posterior de nuevos datos. Sin embargo, Nowak sugiere invertir el modelo. “En lugar de que alguien tenga que etiquetar un conjunto aleatorio de ejemplos, que la máquina lo haga directamente, recurriendo al hombre en aquellos volúmenes específicos que encontrara confusos”, apunta el profesor.
Para conseguirlo ha estado explorando un modelo de aprendizaje activo, en el que la máquina recibe toda la información directamente. En base a ello trabaja junto a su alumno Kevin Jamieson, con el apoyo de la Fundación Nacional de Ciencia de EEUU.
En un comunicado de la UW, el investigador señala que “no se puede dar más de una tonelada de datos en bruto y dejar que la máquina trabaje”. Como en todos los ámbitos, cada uno tiene sus puntos fuertes y débiles. A diferencia de los ordenadores, los humanos no se pueden actualizar. Por el contrario, los equipos requieren gran velocidad para este tipo de tareas, lo que supone un aumento de los costos.
Así las cosas, el objetivo de Nowak es mejorar los sistemas interactivos para que hombre y máquina puedan abordan los problemas de Big Data juntos. Hasta ahora lo habitual es que, quienes categorizan datos, reciban grandes volúmenes de forma aleatoria para etiquetar.
En función a esas etiquetas, el equipo construye una base de comparación para el etiquetado posterior de nuevos datos. Sin embargo, Nowak sugiere invertir el modelo. “En lugar de que alguien tenga que etiquetar un conjunto aleatorio de ejemplos, que la máquina lo haga directamente, recurriendo al hombre en aquellos volúmenes específicos que encontrara confusos”, apunta el profesor.
Para conseguirlo ha estado explorando un modelo de aprendizaje activo, en el que la máquina recibe toda la información directamente. En base a ello trabaja junto a su alumno Kevin Jamieson, con el apoyo de la Fundación Nacional de Ciencia de EEUU.
La cerveza ideal
El aprendizaje activo se utiliza en el campo de la pedagogía para fomentar una metodología participativa de los estudiantes. Prima que los alumnos observen por su cuenta, busquen información y reflexionen acerca de lo que aprenden, en lugar de asimilar conocimientos únicamente de forma pasiva. Se trata de un método que potencia su autonomía, aplicando lo aprendido en la resolución de problemas.
Trasladado al trabajo con grandes volúmenes de datos, el objetivo es similar, dar mayor autonomía al equipo para mejorar su aprendizaje. De esta forma, inicialmente, sin etiquetas, el ordenador hace predicciones muy pobres, mejorando cuando un experto aporta etiquetas para algunos datos. A partir de ahí, si un nuevo punto es similar a uno ya marcado previamente por el hombre, la máquina es capaz de predecir que debe llevar probablemente la misma etiqueta.
Asimismo, el equipo puede usar semejanzas y etiquetas para cuantificar su confianza en las predicciones que realiza. De este modo, si el nivel de confianza es bajo, entonces acude al consejo externo.
Para probar la eficacia de este tipo de interacciones hombre-máquina, Nowak ha recurrido a una aplicación para iOS desarrollada también en la UW, capaz de predecir qué cerveza artesanal preferirá un usuario.
En este caso, las similitudes entre los datos -cervezas- se basan en el sabor, el color y otras características definidas por el espectro de términos utilizados para describirlas en las reseñas de Ratebeer, web que ofrece una completa base de datos con las mejores cervezas del mundo gracias a la opinión de los internautas.
Utilizando esta información como base, el algoritmo encuentra las coincidencias más cercanas a las preferencias del usuario. Casi de la misma manera que lo haría un camarero puede presentar dos opciones, recurriendo a continuación a los gustos del usuario para afinar la mejor selección.
“Básicamente, si ya sé que prefieres Spotted Cow a Guinness, no voy a recomendarte ninguna otra cerveza negra”, explica Nowak. Este tipo de determinaciones "esto o aquello" tienden a ser más estables que las categorizaciones basadas en escalas de clasificación u otras medidas más subjetivas, vulnerables a efectos psicológicos y que pueden resultar pasajeras. Las comparaciones de datos más exactos ofrecen a la máquina información más fiable para mejorar la clasificación y predicción con el tiempo.
Y lo más importante, permite que los equipos procesen la información mucho más rápido, ya que requieren menos ayuda humana para categorizar los datos. Por ejemplo, partiendo de una base de datos con miles de cervezas posibles, el investigador subraya que la aplicación puede hacer una recomendación personalizada tomando como base de 10 a 20 comparaciones.
El aprendizaje activo se utiliza en el campo de la pedagogía para fomentar una metodología participativa de los estudiantes. Prima que los alumnos observen por su cuenta, busquen información y reflexionen acerca de lo que aprenden, en lugar de asimilar conocimientos únicamente de forma pasiva. Se trata de un método que potencia su autonomía, aplicando lo aprendido en la resolución de problemas.
Trasladado al trabajo con grandes volúmenes de datos, el objetivo es similar, dar mayor autonomía al equipo para mejorar su aprendizaje. De esta forma, inicialmente, sin etiquetas, el ordenador hace predicciones muy pobres, mejorando cuando un experto aporta etiquetas para algunos datos. A partir de ahí, si un nuevo punto es similar a uno ya marcado previamente por el hombre, la máquina es capaz de predecir que debe llevar probablemente la misma etiqueta.
Asimismo, el equipo puede usar semejanzas y etiquetas para cuantificar su confianza en las predicciones que realiza. De este modo, si el nivel de confianza es bajo, entonces acude al consejo externo.
Para probar la eficacia de este tipo de interacciones hombre-máquina, Nowak ha recurrido a una aplicación para iOS desarrollada también en la UW, capaz de predecir qué cerveza artesanal preferirá un usuario.
En este caso, las similitudes entre los datos -cervezas- se basan en el sabor, el color y otras características definidas por el espectro de términos utilizados para describirlas en las reseñas de Ratebeer, web que ofrece una completa base de datos con las mejores cervezas del mundo gracias a la opinión de los internautas.
Utilizando esta información como base, el algoritmo encuentra las coincidencias más cercanas a las preferencias del usuario. Casi de la misma manera que lo haría un camarero puede presentar dos opciones, recurriendo a continuación a los gustos del usuario para afinar la mejor selección.
“Básicamente, si ya sé que prefieres Spotted Cow a Guinness, no voy a recomendarte ninguna otra cerveza negra”, explica Nowak. Este tipo de determinaciones "esto o aquello" tienden a ser más estables que las categorizaciones basadas en escalas de clasificación u otras medidas más subjetivas, vulnerables a efectos psicológicos y que pueden resultar pasajeras. Las comparaciones de datos más exactos ofrecen a la máquina información más fiable para mejorar la clasificación y predicción con el tiempo.
Y lo más importante, permite que los equipos procesen la información mucho más rápido, ya que requieren menos ayuda humana para categorizar los datos. Por ejemplo, partiendo de una base de datos con miles de cervezas posibles, el investigador subraya que la aplicación puede hacer una recomendación personalizada tomando como base de 10 a 20 comparaciones.
Rob Nowak y Kevin Jamieson. Fuente: Nick Berard/UW.
La emoción de las palabras
Este tipo de eficiencia es crucial cuanto más grandes son los volúmenes de datos, ya que el trabajo humano no puede mantener el ritmo. Por otra parte, en colaboración con compañeros de Psicología de la UW, Nowak ha aplicado su modelo para estudiar la emoción relativa de las palabras. Sin el modelo de aprendizaje automático activo, encontrar similitudes entre 400 palabras podría requerir hasta 30 millones de comparaciones totales. “Incluso si se pudiera reclutar un batallón de 1.000 estudiantes, todavía corresponderían 30.000 ensayos a cada uno”, señala.
Sin embargo, entender juicios humanos sobre la similitud del significado de ciertas palabras es un reto fundamental en la ciencia cognitiva, aquella que estudia cómo se representa y transforma la información en el cerebro, y absolutamente crucial para conseguir que las máquinas sean capaces de comprender las sutilezas del lenguaje humano. “Tenemos la infraestructura necesaria. Lo que no sabemos es cómo encajar la broma o el doble sentido y la máquina en grandes análisis de datos”, lamenta el profesor. Cuestión de tiempo.
Este tipo de eficiencia es crucial cuanto más grandes son los volúmenes de datos, ya que el trabajo humano no puede mantener el ritmo. Por otra parte, en colaboración con compañeros de Psicología de la UW, Nowak ha aplicado su modelo para estudiar la emoción relativa de las palabras. Sin el modelo de aprendizaje automático activo, encontrar similitudes entre 400 palabras podría requerir hasta 30 millones de comparaciones totales. “Incluso si se pudiera reclutar un batallón de 1.000 estudiantes, todavía corresponderían 30.000 ensayos a cada uno”, señala.
Sin embargo, entender juicios humanos sobre la similitud del significado de ciertas palabras es un reto fundamental en la ciencia cognitiva, aquella que estudia cómo se representa y transforma la información en el cerebro, y absolutamente crucial para conseguir que las máquinas sean capaces de comprender las sutilezas del lenguaje humano. “Tenemos la infraestructura necesaria. Lo que no sabemos es cómo encajar la broma o el doble sentido y la máquina en grandes análisis de datos”, lamenta el profesor. Cuestión de tiempo.