Una persona haciendo un gesto de disparo delante de la cámara de su smartphone. Fuente: ETH Zurich.
La predicción cada vez está más cerca de hacerse realidad. El profesor Otmar Hilliges y su equipo de la Escuela Politécnica Federal de Zúrich (ETH Zurich, Suiza) han desarrollado una nueva aplicación que permite a los usuarios operar su smartphone con gestos de la mano. Este desarrollo amplía la gama de posibles interacciones con tales dispositivos.
Parece un poco extraño al principio, explica la información de la Escuela: se sostiene el teléfono en una mano, y la otra se mueve delante de la cámara integrada haciendo gestos que recuerdan el lenguaje de signos. A veces se mueve el dedo índice a la izquierda, a veces hacia la derecha. Puede abrir los dedos, o imitar unos alicates o el disparo de una pistola.
Al imitar el disparo de una pistola, por ejemplo, un usuario puede cambiar a otra pestaña del navegador, cambiar la visión de un mapa de satélite a estándar, o derribar aviones enemigos en un juego. Abrir los dedos aumenta una sección de un mapa o pasa la página de un libro.
Todo este despliegue de gestos es posible gracias a un nuevo tipo de algoritmo desarrollado por Jie Song, estudiante de posgrado y miembro del grupo de trabajo encabezado por Otmar Hilliges, profesor de Ciencias de la Computación. Los investigadores presentaron la aplicación ante un público de profesionales de la industria en el simposio Tecnología y Software de Interfaces para el Usuario (UIST, User Interface Software and Technology) en Honolulu (Hawaii, EE.UU.).
Programación 'inteligente'
El programa utiliza la cámara incorporada en el teléfono inteligente para registrar su entorno. No evalúa la profundidad o el color. La información que sí se registra -la forma del gesto, las partes de la mano- se reduce a un esquema simple que se clasifica de acuerdo a los gestos almacenados. Entonces, el programa ejecuta el comando asociado con el gesto que observa. El programa también reconoce la distancia de la mano a la cámara y avisa al usuario cuando la mano está demasiado cerca o demasiado lejos.
"Muchos de los programas de reconocimiento de movimiento necesitan mucha potencia de procesador y de memoria", explica Hilliges, que agrega que su nuevo algoritmo utiliza una parte mucho más pequeña de la memoria del ordenador y por lo tanto es ideal para los teléfonos inteligentes.
Él cree que la aplicación es la primera de su tipo que se puede ejecutar en un smartphone. La mínima huella de procesamiento de la app significa que también podría funcionar en los relojes inteligentes o en las gafas de realidad aumentada.
Más control
El programa reconoce por ahora seis gestos diferentes y ejecuta sus comandos correspondientes. Lo importante es que los gestos no generen formas ambiguas. Los gestos que se asemejan unos a otros no son adecuados para esta aplicación.
Hilliges está convencido de que esta nueva forma de funcionamiento de los smartphones aumenta en gran medida su gama de interactividad. El objetivo del investigador es mantener los gestos tan simples como sea posible, de modo que los usuarios pueden operar su teléfono inteligente sin esfuerzo.
¿Pero querrán adaptarse los dueños de smartphones a este nuevo estilo de interacción? El investigador confía en que sí. El control por gestos no reemplazará el control de pantalla táctil, sino que la complementará. "La gente se acostumbró a los juegos de ordenador que se operan con movimientos."
Las pantallas táctiles, nos recuerda Hilliges, también requieren un período de adaptación muy largo antes de hacer un gran impacto en la vida de los consumidores. Está, por tanto, seguro de que esta aplicación -o al menos partes de ella- van a encontrar su hueco en el mercado.
Parece un poco extraño al principio, explica la información de la Escuela: se sostiene el teléfono en una mano, y la otra se mueve delante de la cámara integrada haciendo gestos que recuerdan el lenguaje de signos. A veces se mueve el dedo índice a la izquierda, a veces hacia la derecha. Puede abrir los dedos, o imitar unos alicates o el disparo de una pistola.
Al imitar el disparo de una pistola, por ejemplo, un usuario puede cambiar a otra pestaña del navegador, cambiar la visión de un mapa de satélite a estándar, o derribar aviones enemigos en un juego. Abrir los dedos aumenta una sección de un mapa o pasa la página de un libro.
Todo este despliegue de gestos es posible gracias a un nuevo tipo de algoritmo desarrollado por Jie Song, estudiante de posgrado y miembro del grupo de trabajo encabezado por Otmar Hilliges, profesor de Ciencias de la Computación. Los investigadores presentaron la aplicación ante un público de profesionales de la industria en el simposio Tecnología y Software de Interfaces para el Usuario (UIST, User Interface Software and Technology) en Honolulu (Hawaii, EE.UU.).
Programación 'inteligente'
El programa utiliza la cámara incorporada en el teléfono inteligente para registrar su entorno. No evalúa la profundidad o el color. La información que sí se registra -la forma del gesto, las partes de la mano- se reduce a un esquema simple que se clasifica de acuerdo a los gestos almacenados. Entonces, el programa ejecuta el comando asociado con el gesto que observa. El programa también reconoce la distancia de la mano a la cámara y avisa al usuario cuando la mano está demasiado cerca o demasiado lejos.
"Muchos de los programas de reconocimiento de movimiento necesitan mucha potencia de procesador y de memoria", explica Hilliges, que agrega que su nuevo algoritmo utiliza una parte mucho más pequeña de la memoria del ordenador y por lo tanto es ideal para los teléfonos inteligentes.
Él cree que la aplicación es la primera de su tipo que se puede ejecutar en un smartphone. La mínima huella de procesamiento de la app significa que también podría funcionar en los relojes inteligentes o en las gafas de realidad aumentada.
Más control
El programa reconoce por ahora seis gestos diferentes y ejecuta sus comandos correspondientes. Lo importante es que los gestos no generen formas ambiguas. Los gestos que se asemejan unos a otros no son adecuados para esta aplicación.
Hilliges está convencido de que esta nueva forma de funcionamiento de los smartphones aumenta en gran medida su gama de interactividad. El objetivo del investigador es mantener los gestos tan simples como sea posible, de modo que los usuarios pueden operar su teléfono inteligente sin esfuerzo.
¿Pero querrán adaptarse los dueños de smartphones a este nuevo estilo de interacción? El investigador confía en que sí. El control por gestos no reemplazará el control de pantalla táctil, sino que la complementará. "La gente se acostumbró a los juegos de ordenador que se operan con movimientos."
Las pantallas táctiles, nos recuerda Hilliges, también requieren un período de adaptación muy largo antes de hacer un gran impacto en la vida de los consumidores. Está, por tanto, seguro de que esta aplicación -o al menos partes de ella- van a encontrar su hueco en el mercado.
Detección por sensores
Otra investigación reciente, de la Universidad de Washington (Seattle, EE.UU.), ha desarrollado un sistema que permite también manejar el smartphone con gestos de la mano, pero que los detecta por sensores, no con la cámara. El proyecto lleva de nombre Sideswipe.
La información de la UW explica que la cámara consume mucha energía y requiere que las manos estén en su zona de visión.
La tecnología utiliza las transmisiones inalámbricas del teléfono para detectar gestos cercanos, por lo que funciona cuando el dispositivo está oculta en un bolsillo o bolso, y podría ser fácilmente integrada en los teléfonos inteligentes y tabletas futuras.
"Los smartphones tienen muchos sensores integrados distintos, que van desde cámaras hasta acelerómetros y giroscopios que pueden rastrear el movimiento del propio teléfono", explica Matt Reynolds, profesor de la UW. "Hemos desarrollado un nuevo tipo de sensor que utiliza el reflejo de las propias transmisiones inalámbricas del teléfono para detectar gestos cercanos, permitiendo a los usuarios interactuar con sus teléfonos, incluso cuando no están sosteniendo el teléfono, ni mirando a la pantalla ni tocándola."
Cuando una persona hace una llamada o intercambia datos con una aplicación de Internet, el teléfono transmite señales de radio en una red 2G, 3G o 4G para comunicarse con una estación base. Cuando la mano de un usuario se mueve a través del espacio cerca del teléfono, el cuerpo del usuario refleja algo de la señal transmitida de vuelta hacia el teléfono.
Debido a que las transmisiones inalámbricas del teléfono pasan fácilmente a través de la tela de la ropa o un bolso de mano, el sistema funciona incluso cuando el teléfono está tapado.
Un grupo de 10 participantes en el estudio puso a prueba la tecnología mediante la realización de 14 diferentes gestos con las manos en diversas posiciones alrededor de un smartphone. En cada caso, el teléfono se calibró con los movimientos de la mano del usuario. El smartphone reconocía los gestos con una exactitud de alrededor del 87 por ciento.
La Universidad de Washington ya ha desarrollado otros dos sistemas para manejar smartphones u otros aparatos con gestos, AllSee y WiSee, pero el presentado ahora es más autónomo, puesto que depende sólo del propio aparato.
Otra investigación reciente, de la Universidad de Washington (Seattle, EE.UU.), ha desarrollado un sistema que permite también manejar el smartphone con gestos de la mano, pero que los detecta por sensores, no con la cámara. El proyecto lleva de nombre Sideswipe.
La información de la UW explica que la cámara consume mucha energía y requiere que las manos estén en su zona de visión.
La tecnología utiliza las transmisiones inalámbricas del teléfono para detectar gestos cercanos, por lo que funciona cuando el dispositivo está oculta en un bolsillo o bolso, y podría ser fácilmente integrada en los teléfonos inteligentes y tabletas futuras.
"Los smartphones tienen muchos sensores integrados distintos, que van desde cámaras hasta acelerómetros y giroscopios que pueden rastrear el movimiento del propio teléfono", explica Matt Reynolds, profesor de la UW. "Hemos desarrollado un nuevo tipo de sensor que utiliza el reflejo de las propias transmisiones inalámbricas del teléfono para detectar gestos cercanos, permitiendo a los usuarios interactuar con sus teléfonos, incluso cuando no están sosteniendo el teléfono, ni mirando a la pantalla ni tocándola."
Cuando una persona hace una llamada o intercambia datos con una aplicación de Internet, el teléfono transmite señales de radio en una red 2G, 3G o 4G para comunicarse con una estación base. Cuando la mano de un usuario se mueve a través del espacio cerca del teléfono, el cuerpo del usuario refleja algo de la señal transmitida de vuelta hacia el teléfono.
Debido a que las transmisiones inalámbricas del teléfono pasan fácilmente a través de la tela de la ropa o un bolso de mano, el sistema funciona incluso cuando el teléfono está tapado.
Un grupo de 10 participantes en el estudio puso a prueba la tecnología mediante la realización de 14 diferentes gestos con las manos en diversas posiciones alrededor de un smartphone. En cada caso, el teléfono se calibró con los movimientos de la mano del usuario. El smartphone reconocía los gestos con una exactitud de alrededor del 87 por ciento.
La Universidad de Washington ya ha desarrollado otros dos sistemas para manejar smartphones u otros aparatos con gestos, AllSee y WiSee, pero el presentado ahora es más autónomo, puesto que depende sólo del propio aparato.
Referencia bibliográfica:
Song J, Sörös G, Pece F, Fanello S, Izadi S, Keskin C, Hilliges O: In-air Gestures Around Unmodified Mobile Devices. ACM User Interface Software and Technology Symposium, en Honolulu (Hawaii). 7 de octubre de 2014.
Song J, Sörös G, Pece F, Fanello S, Izadi S, Keskin C, Hilliges O: In-air Gestures Around Unmodified Mobile Devices. ACM User Interface Software and Technology Symposium, en Honolulu (Hawaii). 7 de octubre de 2014.