Fecha
Fuente
UPM-mi+d

Más allá del bastón: interfaces de realidad virtual y aumentada para ayudar a los invidentes

Investigadores han desarrollado una aplicación que permite a los ciegos familiarizarse con un lugar desconocido, antes de visitarlo físicamente, sin más ayuda que la de un smartphone

Un equipo de investigadores del Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid (UPM) mantiene activa desde hace años la línea de investigación eGLANCE, que les ha llevado a desarrollar una aplicación que permite a las personas ciegas percibir los objetos, personas, y otros elementos de una sala, aunque estos estén más allá del alcance de su bastón. La herramienta, además, les guía a través del mejor camino entre dos puntos, evitando los obstáculos. De este modo, pueden tomar decisiones eficientes en situaciones en las que el estado de localizaciones distantes es un factor determinante, lo que conduce a la disminución del esfuerzo físico y mental extra al que se ven sometidos en sus decisiones cotidianas.

Visitar un lugar desconocido supone un esfuerzo grande y estresante para los invidentes. La carencia de información visual impone una fuerte carga cognitiva a la hora de familiarizarse con la disposición de los obstáculos. Así mismo, lleva aparejados unos elevados niveles de incertidumbre e inseguridad durante los desplazamientos, ya que las estructuras sobresalientes a la altura de la cabeza, como letreros, o algunas concavidades del entorno, provocan situaciones de riesgo. El profesor José Javier Serrano del CTB-UPM está convencido de que la realidad virtual y la realidad aumentada son tecnologías viables para ayudar a los ciegos a familiarizarse y desplazarse por lugares desconocidos. Basándose en esta hipótesis puso en marcha la línea de investigación eGLANCE, con el objetivo de desarrollar una aplicación para que los ciegos puedan, en primer lugar, percibir los objetos, personas, y otros elementos de una sala sin necesidad de desplazarse. En segundo lugar, familiarizarse con antelación −por ejemplo desde su hogar− con un lugar desconocido. En tercer lugar, ser guiados a través del mejor camino entre dos puntos, evitando los obstáculos.

 

Uno de los resultados más relevantes de eGLANCE hasta la fecha es su modelo de interacción para realidad virtual adaptado a las necesidades de los ciegos o, lo que es lo mismo, su modelo de realidad virtual tiflointeractiva. En él se define cómo dirigir la atención a cualquier punto de una sala virtual (interacción cognitiva) y cómo informar de los objetos, personas, y otros elementos presentes en cada región (interacción sensitiva). Los ciegos dirigen su atención, o su “mirada”, controlando el movimiento de un elemento virtual inédito hasta la fecha: el Foco de Atención. Este solo existe en el mundo virtual, se controla mediante gestos, y va chocando con las representaciones de los objetos reales a medida que se mueve por la sala virtual. Por otra parte, se informa a los ciegos de los elementos presentes a través de información multisensorial con una combinación de voz, sonidos, y vibraciones.

El modelo de interacción se ha probado experimentalmente con éxito en el propio CTB y en él han participado investigadores de la UPM, del Centro de Investigación Biomédica en Red (CIBER-BBN) y de la Universidad de las Fuerzas Armadas ESPE (UFA-ESPE). El equipo del profesor Serrano ha implementado el modelo de tiflointeracción en unas interfaces para smartphone y ha construido, a modo de videojuego, los modelos virtuales de algunas de las salas del propio CTB. Los investigadores contaron con la colaboración de un grupo de voluntarios ciegos compuesto por afiliados a la ONCE, trabajadores de la Fundación ONCE, y alumnos adscritos al servicio de apoyo de la UPM. Estos usaron dichos videojuegos para aprender la disposición de cada sala y posteriormente se midió la calidad de sus mapas cognitivos y su capacidad para desenvolverse en los correspondientes espacios reales. “Los resultados que hemos obtenido con este trabajo podría ser una referencia en los tipos de interfaces sensibles utilizadas en realidad virtual aumentada para personas ciegas, lo que proporciona una mayor eficiencia y eficacia durante el aprendizaje de nuevos entornos” concluye Serrano.

eGLANCE viene contando desde sus inicios con el asesoramiento de la ONCE y de la Fundación ONCE. La prueba experimental del modelo de interacción ha contado con la financiación de la Cátedra Indra-Fundación Adecco y de los fondos FEDER de la Comisión Europea.


Referencia bibliográfica:

Guerrón, N. E., Cobo, A., Serrano Olmedo, J. J., & Martín, C. (2020). Sensitive interfaces for blind people in virtual visits inside unknown spaces. International Journal of Human-Computer Studies, 133, 13–25. https://doi.org/10.1016/j.ijhcs.2019.08.004

Cobo, A., Guerrón, N. E., Martín, C., del Pozo, F., & Serrano, J. J. (2017). Differences between blind people’s cognitive maps after proximity and distant exploration of virtual environments. Computers in Human Behavior, 77 (Supplement C), 294–308. https://doi.org/10.1016/j.chb.2017.09.007

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.