Asistentes personales inteligentes como Siri, Google Now o Cortana están a punto de tener un nuevo competidor en el mercado, además gratuito y personalizable. Se trata de Sirius, desarrollado por un equipo de investigadores de Ingeniería de la Universidad de Michigan (UM), en Estados Unidos. Al igual que los sistemas de Apple, Google y Microsoft es capaz de seguir instrucciones y preguntas de voz, interpretarlas y responder utilizando la palabra, pero utilizando código abierto.
Según explica la UM en un comunicado, Sirius utiliza incluso la mayoría de los algoritmos de sus homólogos, pero no se trata una herramienta costosa o con bloqueos comerciales, lo que le permitirá adaptarse a cualquier tipo de dispositivo en la era de los wearables. "Ahora la tecnología principal está a nuestro alcance", explica Jason Mars, profesor de Ciencias de la Computación e Ingeniería y co-director de Clarity Lab, donde se desarrolló Sirius.
Así, en lugar de crear una aplicación que se ejecutara en Apple Watch, el reloj de la manzana, un desarrollador podría ingeniar su propio reloj. “Estamos muy contentos de ver todo lo que se puede construir y aprender con Sirius como punto de partida”, añade Mars.
El profesor lo describe como el Linux de los asistentes personales inteligentes. Linux es un sistema operativo –como OS X de Apple y Microsoft Windows- pero libre y gratuito. Aunque sea menos habitual en ordenadores domésticos, ha revolucionado la informática actual, convirtiéndose en el sistema preferido para ejecutar servidores, e incluso la base sobre la que se sustenta Android de Google, el sistema operativo más común de tabletas y teléfonos inteligentes.
Los investigadores presentaban su proyecto el pasado sábado en una conferencia sobre lenguajes de programación y sistemas operativos (ASPLOS) celebrada en Estambul, liberando el software inmediatamente después, por lo que ya se puede probar en su versión demo.
Según explica la UM en un comunicado, Sirius utiliza incluso la mayoría de los algoritmos de sus homólogos, pero no se trata una herramienta costosa o con bloqueos comerciales, lo que le permitirá adaptarse a cualquier tipo de dispositivo en la era de los wearables. "Ahora la tecnología principal está a nuestro alcance", explica Jason Mars, profesor de Ciencias de la Computación e Ingeniería y co-director de Clarity Lab, donde se desarrolló Sirius.
Así, en lugar de crear una aplicación que se ejecutara en Apple Watch, el reloj de la manzana, un desarrollador podría ingeniar su propio reloj. “Estamos muy contentos de ver todo lo que se puede construir y aprender con Sirius como punto de partida”, añade Mars.
El profesor lo describe como el Linux de los asistentes personales inteligentes. Linux es un sistema operativo –como OS X de Apple y Microsoft Windows- pero libre y gratuito. Aunque sea menos habitual en ordenadores domésticos, ha revolucionado la informática actual, convirtiéndose en el sistema preferido para ejecutar servidores, e incluso la base sobre la que se sustenta Android de Google, el sistema operativo más común de tabletas y teléfonos inteligentes.
Los investigadores presentaban su proyecto el pasado sábado en una conferencia sobre lenguajes de programación y sistemas operativos (ASPLOS) celebrada en Estambul, liberando el software inmediatamente después, por lo que ya se puede probar en su versión demo.
Voz e imagen
Junto al código abierto, la novedad de Sirius frente a los sistemas actuales es la capacidad de responder tanto a preguntas de voz como a reconocer imágenes, ejecutándose en la nube. Así, en su versión inicial, los usuarios pueden realizar consultas bien únicamente por voz, o combinando palabra e imagen. Por ejemplo, mostrando la foto de un restaurante, se le puede preguntar a qué hora cierra.
"Lo que hemos hecho con Sirius es llevarlo al límite de los asistentes personales inteligentes tradicionales", subraya Johann Hauswald, estudiante de doctorado de la UM en Clarity Lab. "No sólo se puede interactuar con la voz, sino también hacer preguntas sobre lo que estás viendo, una nueva forma de interacción con este tipo de dispositivos", añade.
La versión demo de Sirius es una Wikipedia hablante. Los investigadores cargaron una versión estática de la mayor enciclopedia libre virtual, de forma que los usuarios pueden hacer preguntas basadas en datos objetivos. Sin embargo, la base de conocimiento se puede modificar por cualquier tipo de información que investigadores o startups consideren útil.
De esta forma se podrían crear asistentes digitales especializados en campos tan dispares como la medicina, la cocina o la reparación de automóviles. De hecho, investigadores de la UM están ya trabajando con IBM para desarrollar una herramienta que podría ayudar en el asesoramiento académico.
Para desarrollar Sirius, los investigadores parten de varios proyectos ya verificados de código abierto, cuyas técnicas y algoritmos se asemejan a las de los sistemas comerciales. Por una parte, el reconocimiento de voz proviene de Sphinx, de la Universidad Carnegie Mellon, en EEUU; Kaldi, de Microsoft Research; y RASR, de la Universidad Técnica de Aquisgrán (oficialmente RWTH Aachen) en Alemania.
El sistema de preguntas y respuesta procede de OpenEphyra, el mismo que sentó las bases para que el superordenador Watson, de IBM, derrotara a concursantes reales en Jeopardy, el popular 'trivial' de la televisión estadounidense. Y por último, el reconocimiento de imagen proviene de SURF, algoritmo de visión por computador de Kooaba, startup suiza adquirida recientemente por Qualcomm.
Junto al código abierto, la novedad de Sirius frente a los sistemas actuales es la capacidad de responder tanto a preguntas de voz como a reconocer imágenes, ejecutándose en la nube. Así, en su versión inicial, los usuarios pueden realizar consultas bien únicamente por voz, o combinando palabra e imagen. Por ejemplo, mostrando la foto de un restaurante, se le puede preguntar a qué hora cierra.
"Lo que hemos hecho con Sirius es llevarlo al límite de los asistentes personales inteligentes tradicionales", subraya Johann Hauswald, estudiante de doctorado de la UM en Clarity Lab. "No sólo se puede interactuar con la voz, sino también hacer preguntas sobre lo que estás viendo, una nueva forma de interacción con este tipo de dispositivos", añade.
La versión demo de Sirius es una Wikipedia hablante. Los investigadores cargaron una versión estática de la mayor enciclopedia libre virtual, de forma que los usuarios pueden hacer preguntas basadas en datos objetivos. Sin embargo, la base de conocimiento se puede modificar por cualquier tipo de información que investigadores o startups consideren útil.
De esta forma se podrían crear asistentes digitales especializados en campos tan dispares como la medicina, la cocina o la reparación de automóviles. De hecho, investigadores de la UM están ya trabajando con IBM para desarrollar una herramienta que podría ayudar en el asesoramiento académico.
Para desarrollar Sirius, los investigadores parten de varios proyectos ya verificados de código abierto, cuyas técnicas y algoritmos se asemejan a las de los sistemas comerciales. Por una parte, el reconocimiento de voz proviene de Sphinx, de la Universidad Carnegie Mellon, en EEUU; Kaldi, de Microsoft Research; y RASR, de la Universidad Técnica de Aquisgrán (oficialmente RWTH Aachen) en Alemania.
El sistema de preguntas y respuesta procede de OpenEphyra, el mismo que sentó las bases para que el superordenador Watson, de IBM, derrotara a concursantes reales en Jeopardy, el popular 'trivial' de la televisión estadounidense. Y por último, el reconocimiento de imagen proviene de SURF, algoritmo de visión por computador de Kooaba, startup suiza adquirida recientemente por Qualcomm.
Almacenamiento computacional
El potencial de este asistente puede llegar lejos. De hecho, Mars ve Sirius como una importante plataforma para la investigación en el desarrollo de la próxima generación de almacenamiento computacional. Y es que se trata de un banco de pruebas ideal puesto al servicio de los investigadores para estudiar cómo los centros de los datos que procesan consultas de voz deben evolucionar para enfrentarse a los nuevos retos.
Los wearables dependerán en gran medida de la entrada de voz e imagen, y para el año 2018 se calcula que el número de ventas de este tipo de dispositivos podría alcanzar hasta los 485 millones de unidades en todo el mundo.
Además, la mayor parte del trabajo de los asistentes de voz se ejecuta en la nube. Herramientas como Siri o Cortana pueden aceptar órdenes o preguntas desde el smartphone y traducirlas a texto. Pero es un software alojado en la nube el que interpreta el texto, busca las posibles respuestas, elige la mejor y la envía de vuelta al dispositivo móvil.
Este proceso, según los investigadores, puede requerir 100 veces más potencia que una simple búsqueda de texto. Así las cosas, calcularon que si la voz suplanta al texto para consultas web, la infraestructura del centro de datos tendría que crecer 165 veces. "Tenemos que pensar en nuevas formas de rediseñar nuestras plataformas en la nube para afrontar este tipo de carga de trabajo", advierte Mars.
"Hay quien se pregunta si la interacción por voz o imagen es sólo bombo publicitario o algo grande, y realmente creo que es la tendencia natural", subraya Lingjia Tang, también profesora en la UM y co-directora del Clarity Lab. "Creo que la forma de comunicarnos con los ordenadores cada vez se asemejará más a cómo nos comunicamos entre humanos", vaticina.
El potencial de este asistente puede llegar lejos. De hecho, Mars ve Sirius como una importante plataforma para la investigación en el desarrollo de la próxima generación de almacenamiento computacional. Y es que se trata de un banco de pruebas ideal puesto al servicio de los investigadores para estudiar cómo los centros de los datos que procesan consultas de voz deben evolucionar para enfrentarse a los nuevos retos.
Los wearables dependerán en gran medida de la entrada de voz e imagen, y para el año 2018 se calcula que el número de ventas de este tipo de dispositivos podría alcanzar hasta los 485 millones de unidades en todo el mundo.
Además, la mayor parte del trabajo de los asistentes de voz se ejecuta en la nube. Herramientas como Siri o Cortana pueden aceptar órdenes o preguntas desde el smartphone y traducirlas a texto. Pero es un software alojado en la nube el que interpreta el texto, busca las posibles respuestas, elige la mejor y la envía de vuelta al dispositivo móvil.
Este proceso, según los investigadores, puede requerir 100 veces más potencia que una simple búsqueda de texto. Así las cosas, calcularon que si la voz suplanta al texto para consultas web, la infraestructura del centro de datos tendría que crecer 165 veces. "Tenemos que pensar en nuevas formas de rediseñar nuestras plataformas en la nube para afrontar este tipo de carga de trabajo", advierte Mars.
"Hay quien se pregunta si la interacción por voz o imagen es sólo bombo publicitario o algo grande, y realmente creo que es la tendencia natural", subraya Lingjia Tang, también profesora en la UM y co-directora del Clarity Lab. "Creo que la forma de comunicarnos con los ordenadores cada vez se asemejará más a cómo nos comunicamos entre humanos", vaticina.