Gafas inteligentes con teclado virtual de texto y de piano

Científicos coreanos presentan la tercera versión de sus K-Glass


El Instituto Avanzado de Ciencia y Tecnología de Corea, Kaist, ha presentado la tercera versión de sus gafas inteligentes K-Glass, que esta vez simula un teclado virtual para texto o incluso para piano. Tiene una cámara en estéreo que gasta muy poca batería, y puede funcionar durante 24 horas seguidas. Versiones anteriores podían manejarse moviendo los ojos. Por Carlos Gómez Abajo.


07/03/2016

K-Glass reconoce el movimiento de las manos y simula un teclado de piano. Fuente: Kaist.
K-Glass, las gafas inteligentes reforzadas con realidad aumentada desarrolladas por primera vez en el Instituto Avanzado de Ciencia y Tecnología de Corea (Kaist) en 2014, cuya segunda versión se lanzó en 2015, están de vuelta con un modelo aún más potente. La última versión, que los investigadores llaman K-Glass 3, permite a los usuarios escribir un mensaje o introducir palabras de búsqueda por Internet, ofreciendo un teclado virtual para texto e incluso uno para piano.
 
Las pantallas para la cabeza actuales sufren de una falta de interfaces de usuario ricas, sus baterías duran poco, y pesan demasiado. Algunas, como Google Glass, utilizan un panel táctil y comandos de voz como interfaz, pero se consideran más una extensión de los teléfonos inteligentes. Varias, entre ellas K-Glass 2, han propuesto el manejo con los ojos, pero éste no puede desarrollarse en forma de interfaz natural de usuario (utilizando partes del cuerpo del usuario), ni de interfaz de experiencia de usuario (UX), debido a que es muy lento, y a su limitada interactividad.
 
Como solución, el profesor Hoi-Jun Yoo y su equipo del Departamento de Ingeniería Eléctrica han desarrollado recientemente K-Glass 3 con una interfaz de usuario natural de baja potencia y un procesador UX. Este procesador se compone de un núcleo de procesamiento previo para ejecutar visión estéreo, siete núcleos profundos de aprendizaje para acelerar el reconocimiento de escena en tiempo real -33 milisegundos-, y un motor de renderizado (generación de imágenes) para la pantalla.

Cámara
 
La cámara en estéreo-visión, ubicada en la parte frontal de K-Glass 3, funciona de una manera similar a la detección en 3D de la visión humana. Las dos lentes de la cámara, colocadas horizontalmente para percibir la profundidad igual que los ojos, hacen fotografías de los mismos objetos o escenas y combinan las dos imágenes diferentes para extraer información de la profundidad espacial, que es necesaria para reconstruir entornos 3D. El algoritmo de visión de la cámara tiene una eficiencia energética de 20 milivatios por término medio, que le permiten operar en las gafas más de 24 horas sin interrupción.

El equipo de investigación ha utilizado tecnología de aprendizaje profundo por multi-núcleo específica para dispositivos móviles. Esta tecnología ha mejorado en gran medida la precisión del reconocimiento de imágenes y voz de las K-Glass, y ha acortado el tiempo necesario para procesar y analizar los datos.

Además, el procesador de varios núcleos es lo suficientemente avanzado como para inactivarse cuando no detecta ningún movimiento de los usuarios. En lugar de ello, ejecuta algoritmos complejos de aprendizaje profundo con un mínimo de energía para lograr un alto rendimiento.

Yoo explica, en la nota de prensa de Kaist: "Hemos conseguido con éxito fabricar un procesador de múltiples núcleos de baja potencia que consume sólo 126 milivatios con una alta tasa de eficiencia. Es esencial desarrollar una un procesador de bajo consumo más pequeño y ligero si queremos logar un uso generalizado de las gafas inteligentes y dispositivos vestibles en la vida cotidiana. K-Glass 3 tiene una interfaz de usuario natural más intuitiva permite a los usuarios disfrutar de mejores experiencias de realidad aumentada, como un teclado o un ratón más sensible".

Precedentes

K-Glass 2, presentada hace un año, podía manejarse mediante el movimiento de los ojos. El movimiento en sí manejaba el cursor, mientras que los guiños permitían seleccionar un icono u objeto. De ese modo se evitaba tener que usar la voz, método que plantea problemas de privacidad. Además, la tecnología era muy eficiente energéticamente porque sólo actúa sobre la región visual de interés para el usuario.

Kaist presentó también en 2014 una pantalla transparente en la que las dos caras son táctiles y puede usarse por tanto simultáneamente por los dos lados. La pantalla se llama Transwall y permite que dos personas, frente a frente y separadas por la pantalla, puedan usar una misma aplicación juntas o por separado. La imagen es proyectada en cada lado de la pantalla por dos videoproyectores situados en ambas caras.

Referencia bibliográfica:

Seongwok Park et al.: A 126.1mW Real-Time Natural UI/UX Processor with Embedded Deep-Learning Core for Low-Power Smart Glasses. IEEE International Solid-State Circuits Conference (ISSCC, 2016).



Artículo leído 2550 veces



Más contenidos