El sistema se integra en unas gafas de realidad virtual. Imagen: UC3M.
Un sistema desarrollado por científicos de la Universidad Carlos III de Madrid (UC3M) podría resultar de utilidad a personas con discapacidad visual moderada, fundamentalmente a quienes tienen problemas para percibir toda la amplitud del entorno.
Se trata de una tecnología integrable en unas gafas de realidad virtual que detecta la distancia y forma de los objetos. Un sencillo código de colores es la forma de interactuar con el usuario.
“Este dispositivo se orienta a quienes en un deambular normal se chocarían con todo lo que dejan de ver por las pérdidas de su campo visual, producto de glaucomas, patologías retinianas, etc.”, indica el responsable del proyecto, Ricardo Vergaz, profesor del departamento de Tecnología Electrónica de la UC3M.
El prototipo se ha desarrollado sobre el soporte de un dispositivo HMD (Head Mounted Display), un casco de realidad virtual que integra dos cámaras y que está acoplado a un pequeño ordenador que procesa todas las imágenes que le llegan.
A continuación, gracias al algoritmo que han desarrollado estos investigadores, el sistema determina la distancia y los contornos de los objetos y se lo comunica al usuario en tiempo real mediante dos micropantallas, resaltando la silueta de los elementos de la escena y variando el color en función de la distancia.
“Detecta los objetos y las personas que se mueven dentro del campo visual que tendría una persona sin patologías. A menudo el paciente no los ve también por problemas de contraste”, explica el profesor Vergaz. “La información sobre profundidad es la que más echaban de menos los pacientes que usan este tipo de ayudas técnicas”, comenta.
Se trata de una tecnología integrable en unas gafas de realidad virtual que detecta la distancia y forma de los objetos. Un sencillo código de colores es la forma de interactuar con el usuario.
“Este dispositivo se orienta a quienes en un deambular normal se chocarían con todo lo que dejan de ver por las pérdidas de su campo visual, producto de glaucomas, patologías retinianas, etc.”, indica el responsable del proyecto, Ricardo Vergaz, profesor del departamento de Tecnología Electrónica de la UC3M.
El prototipo se ha desarrollado sobre el soporte de un dispositivo HMD (Head Mounted Display), un casco de realidad virtual que integra dos cámaras y que está acoplado a un pequeño ordenador que procesa todas las imágenes que le llegan.
A continuación, gracias al algoritmo que han desarrollado estos investigadores, el sistema determina la distancia y los contornos de los objetos y se lo comunica al usuario en tiempo real mediante dos micropantallas, resaltando la silueta de los elementos de la escena y variando el color en función de la distancia.
“Detecta los objetos y las personas que se mueven dentro del campo visual que tendría una persona sin patologías. A menudo el paciente no los ve también por problemas de contraste”, explica el profesor Vergaz. “La información sobre profundidad es la que más echaban de menos los pacientes que usan este tipo de ayudas técnicas”, comenta.
Pruebas actuales
En estos momentos, el invento se está probando sobre el soporte de unas gafas 'inteligentes' en colaboración con el Instituto de Oftalmología Aplicada (IOBA) de la Universidad de Valladolid, donde realizan los ensayos clínicos de cara a su validación y aplicabilidad.
“El IOBA nos contará sus resultados a finales de este año tras probarlo con una muestra de población representativa de los pacientes que podrían utilizar el dispositivo, lo que nos permitirá valorar el éxito y validez de su funcionamiento y mejorarlo”, explica Ricardo Vergaz.
El objetivo final es mejorar la ergonomía del dispositivo, de modo que el usuario no tenga inconveniente en llevar estas gafas junto con un mecanismo electrónico ligero que se podría llevar en un bolsillo.
Este proyecto potencia la línea de investigación relacionada con el diseño, desarrollo e innovación de nuevas técnicas destinadas a personas con discapacidades, iniciada en la UC3M por el Grupo de Displays y Aplicaciones Fotónicas. La aplicación ha sido elaborada en el marco del Proyecto de Ayudas Técnicas Integradas para Discapacidades visuales, Transportables y Accesibles (ATIDivisTA), en la convocatoria de ayudas para la consolidación de grupos de investigación con jóvenes investigadores de la Comunidad de Madrid. En el proyecto participa el profesor doctor Juan Carlos Torres, y el ingeniero industrial Carlos Barranco, contratado para plasmar las evoluciones del prototipo tras el término del proyecto.
La lupa virtual
Los investigadores también están desarrollando otro ingenio que consiste en una lupa virtual. “La principal novedad – destaca Vergaz - radica en el tipo de algoritmo desarrollado, que permite al usuario perderse menos mientras lee el texto”.
El resultado es similar al modo en que funcionaría una lupa real, pero controlando la presentación en pantalla (móvil, tableta, etc.), con la modificación de la forma y dirección del aumento, para facilitar la lectura y evitar perder la línea y la referencia textual.
Este sistema podría resultar de gran utilidad a personas con pérdida de visión en el campo central, como las que sufren degeneración macular asociada a la edad. Todas estas patologías no producen ceguera total y hay cientos de miles de personas afectadas o que potencialmente pueden serlo, en mayor o menor medida, sólo en España.
En estos momentos, el invento se está probando sobre el soporte de unas gafas 'inteligentes' en colaboración con el Instituto de Oftalmología Aplicada (IOBA) de la Universidad de Valladolid, donde realizan los ensayos clínicos de cara a su validación y aplicabilidad.
“El IOBA nos contará sus resultados a finales de este año tras probarlo con una muestra de población representativa de los pacientes que podrían utilizar el dispositivo, lo que nos permitirá valorar el éxito y validez de su funcionamiento y mejorarlo”, explica Ricardo Vergaz.
El objetivo final es mejorar la ergonomía del dispositivo, de modo que el usuario no tenga inconveniente en llevar estas gafas junto con un mecanismo electrónico ligero que se podría llevar en un bolsillo.
Este proyecto potencia la línea de investigación relacionada con el diseño, desarrollo e innovación de nuevas técnicas destinadas a personas con discapacidades, iniciada en la UC3M por el Grupo de Displays y Aplicaciones Fotónicas. La aplicación ha sido elaborada en el marco del Proyecto de Ayudas Técnicas Integradas para Discapacidades visuales, Transportables y Accesibles (ATIDivisTA), en la convocatoria de ayudas para la consolidación de grupos de investigación con jóvenes investigadores de la Comunidad de Madrid. En el proyecto participa el profesor doctor Juan Carlos Torres, y el ingeniero industrial Carlos Barranco, contratado para plasmar las evoluciones del prototipo tras el término del proyecto.
La lupa virtual
Los investigadores también están desarrollando otro ingenio que consiste en una lupa virtual. “La principal novedad – destaca Vergaz - radica en el tipo de algoritmo desarrollado, que permite al usuario perderse menos mientras lee el texto”.
El resultado es similar al modo en que funcionaría una lupa real, pero controlando la presentación en pantalla (móvil, tableta, etc.), con la modificación de la forma y dirección del aumento, para facilitar la lectura y evitar perder la línea y la referencia textual.
Este sistema podría resultar de gran utilidad a personas con pérdida de visión en el campo central, como las que sufren degeneración macular asociada a la edad. Todas estas patologías no producen ceguera total y hay cientos de miles de personas afectadas o que potencialmente pueden serlo, en mayor o menor medida, sólo en España.