Un brazalete proyecta una interfaz de usuario en la piel. Fuente: ACM
A pesar del auge de las pantallas táctiles en los dispositivos electrónicos, aún existe quien las considera incómodas o demasiado pequeñas para manejarlas con la misma destreza que las interfaces convencionales. Para solucionar este problema de tamaño, un equipo de investigación formado por científicos de la Universidad Carnegie Mellon y del laboratorio de Microsoft en Redmond ha ideado un sistema que permite utilizar el propio cuerpo para controlar los menús de navegación de teléfonos móviles, reproductores de sonido, o incluso, ordenadores, según un comunicado publicado por Microsoft y que recoge New Scientist.
El prototipo, bautizado como Skinput, se compone de un proyector minúsculo que está incrustado en un brazalete y un detector acústico integrado en el mismo dispositivo. El proyector se encarga de emitir imágenes (como un teclado, un menú u otros gráficos) sobre la piel de las palmas de las manos o los antebrazos. A continuación, el detector de sonido determina qué parte de la pantalla se activa cuando el usuario presiona su cuerpo.
Como botones de piel
El detector de sonido funciona porque las distintas partes de la piel son acústicamente diferentes. Pequeñas variaciones en la densidad ósea, en el tamaño y masa, en los tejidos blandos y en las articulaciones son suficientes para determinar en qué punto exacto del cuerpo se está ejerciendo una presión. Así, este software empareja las frecuencias de sonido en lugares específicos de la piel, permitiendo que el sistema pueda determinar qué “botón de piel” está pulsando el usuario. Después, mediante tecnología inalámbrica como Bluetooth, Skinput transmite las órdenes al dispositivo para que sea controlado como un teléfono, un iPod o un ordenador.
Según Michael Liebschner, director del Laboratorio de Bio-Innovaciones en el Colegio Baylor de Medicina en Houston, que ha trabajado en el detector acústico del dispositivo, “Skinput es un sistema prometedor que acerca de manera factible la utilización del cuerpo como un dispositivo de entrada”. Y es que, como señalan en el comunicado los padres del invento, Chris Harrison, Dan Morris y Desney Tan, “el cuerpo humano es un dispositivo de entrada atractivo, no sólo porque tiene más o menos dos metros cuadrados de superficie externa, sino también porque gran parte de ella es fácilmente accesible a nuestras manos, como por ejemplo, los brazos, los muslos o el torso”.
El prototipo, bautizado como Skinput, se compone de un proyector minúsculo que está incrustado en un brazalete y un detector acústico integrado en el mismo dispositivo. El proyector se encarga de emitir imágenes (como un teclado, un menú u otros gráficos) sobre la piel de las palmas de las manos o los antebrazos. A continuación, el detector de sonido determina qué parte de la pantalla se activa cuando el usuario presiona su cuerpo.
Como botones de piel
El detector de sonido funciona porque las distintas partes de la piel son acústicamente diferentes. Pequeñas variaciones en la densidad ósea, en el tamaño y masa, en los tejidos blandos y en las articulaciones son suficientes para determinar en qué punto exacto del cuerpo se está ejerciendo una presión. Así, este software empareja las frecuencias de sonido en lugares específicos de la piel, permitiendo que el sistema pueda determinar qué “botón de piel” está pulsando el usuario. Después, mediante tecnología inalámbrica como Bluetooth, Skinput transmite las órdenes al dispositivo para que sea controlado como un teléfono, un iPod o un ordenador.
Según Michael Liebschner, director del Laboratorio de Bio-Innovaciones en el Colegio Baylor de Medicina en Houston, que ha trabajado en el detector acústico del dispositivo, “Skinput es un sistema prometedor que acerca de manera factible la utilización del cuerpo como un dispositivo de entrada”. Y es que, como señalan en el comunicado los padres del invento, Chris Harrison, Dan Morris y Desney Tan, “el cuerpo humano es un dispositivo de entrada atractivo, no sólo porque tiene más o menos dos metros cuadrados de superficie externa, sino también porque gran parte de ella es fácilmente accesible a nuestras manos, como por ejemplo, los brazos, los muslos o el torso”.
Sin embargo, otros investigadores como Pranav Mistry, del Laboratorio de Medios de comunicación en el Instituto Tecnológico de Massachusetts, advierte a los usuarios que para que el sistema funcione hay que extremar la precisión a la hora de colocar el brazalete en el lugar exacto, porque, en caso contrario, la tecnología no funcionaría correctamente.
De momento lo único cierto es que los voluntarios que han probado el sistema han dado una respuesta positiva sobre su facilidad de navegación. En la actualidad, el detector acústico es capaz de identificar cinco localidades de la piel con una precisión del 95,5%, que corresponde a una versatilidad suficiente para muchas aplicaciones móviles. Además, según los investigadores el sistema también funciona bien cuando el usuario está caminando o corriendo.
El próximo mes de abril, el equipo estadounidense presentará su trabajo en la conferencia ACM (Conference on Human Factors in Computing Systems) que se celebrará en Atlanta, Georgia.
De momento lo único cierto es que los voluntarios que han probado el sistema han dado una respuesta positiva sobre su facilidad de navegación. En la actualidad, el detector acústico es capaz de identificar cinco localidades de la piel con una precisión del 95,5%, que corresponde a una versatilidad suficiente para muchas aplicaciones móviles. Además, según los investigadores el sistema también funciona bien cuando el usuario está caminando o corriendo.
El próximo mes de abril, el equipo estadounidense presentará su trabajo en la conferencia ACM (Conference on Human Factors in Computing Systems) que se celebrará en Atlanta, Georgia.