La estudiante Dora Uchel prueba Navatar. Fuente: Mike Wolterbeek, Universidad de Nevada.
El equipo de Ingeniería Informática de la Universidad de Nevada (UNR), en Estados Unidos, formado por Kostas Bekris y Eelke Folmer, acaba de presentar su sistema de navegación interior para personas con discapacidad visual.
Combinando la interacción persona-ordenador con algoritmos de probabilidad, los investigadores han conseguido diseñar un sistema barato, llamado Navatar, que puede ejecutarse en un smartphone de serie.
"Los sistemas actuales de navegación interior suelen requerir el uso de sensores costosos y pesados o equipar las habitaciones y pasillos con las etiquetas de radiofrecuencia que puedan ser detectadas por un lector manual y que se utilizan para determinar la ubicación del usuario", explica en una nota de prensa de la UNR Kostas Bekris, del Laboratorio de Investigación de la Facultad de Ingeniería Robótica: "Esto ha hecho que la implementación de tales sistemas fuera prohibitivamente cara”.
En cambio, el sistema de navegación de la Universidad de Nevada, en la ciudad de Reno, utiliza mapas arquitectónicos digitales en 2D que ya están disponibles para muchos edificios, así como sensores baratos, tales como acelerómetros y brújulas, que están disponibles en la mayoría de smartphones.
El sistema localiza y rastrea al usuario en el interior del edificio, encuentra el camino más adecuado en función de las necesidades especiales del usuario, y da instrucciones paso a paso para llegar al destino.
Combinando la interacción persona-ordenador con algoritmos de probabilidad, los investigadores han conseguido diseñar un sistema barato, llamado Navatar, que puede ejecutarse en un smartphone de serie.
"Los sistemas actuales de navegación interior suelen requerir el uso de sensores costosos y pesados o equipar las habitaciones y pasillos con las etiquetas de radiofrecuencia que puedan ser detectadas por un lector manual y que se utilizan para determinar la ubicación del usuario", explica en una nota de prensa de la UNR Kostas Bekris, del Laboratorio de Investigación de la Facultad de Ingeniería Robótica: "Esto ha hecho que la implementación de tales sistemas fuera prohibitivamente cara”.
En cambio, el sistema de navegación de la Universidad de Nevada, en la ciudad de Reno, utiliza mapas arquitectónicos digitales en 2D que ya están disponibles para muchos edificios, así como sensores baratos, tales como acelerómetros y brújulas, que están disponibles en la mayoría de smartphones.
El sistema localiza y rastrea al usuario en el interior del edificio, encuentra el camino más adecuado en función de las necesidades especiales del usuario, y da instrucciones paso a paso para llegar al destino.
Puntos de referencia manuales
"Sin embargo, los sensores del teléfono inteligente, que se utilizan para calcular la cantidad de pasos que el usuario ha ejecutado y su orientación, tienden a captar señales falsas", matiza Folmer, que ha desarrollado videojuegos con ejercicios para ciegos: "Para verificar la localización, nuestro sistema combina algoritmos de probabilidad y la capacidad natural de las personas con discapacidad visual para la detección de puntos de referencia en su entorno a través del tacto, como las intersecciones de pasillos, puertas, escaleras y ascensores."
Folmer explica que, como los dispositivos de pantalla táctil son difíciles de usar para los usuarios con discapacidad visual, las direcciones se dan de forma sintética y los usuarios confirman la presencia de un punto de referencia por confirmación verbal o pulsando un botón en el teléfono o en un kit manos libres Bluetooth.
Una de las ventajas de este enfoque es que el usuario puede dejar el teléfono en el bolsillo dejando ambas manos libres para el uso de un bastón y el reconocimiento de señales táctiles.
"Esta es una mezcla muy interesante de disciplinas; se trata de usar al usuario como un sensor combinado con sofisticados algoritmos de localización del campo de la robótica", explica Folmer, del Laboratorio de Interacción Persona-Ordenador del departamento de Ingeniería Informática.
El equipo está tratando de implementar su sistema de navegación en otros entornos e integrarlo en los sistemas de navegación al aire libre que usan GPS.
"Sin embargo, los sensores del teléfono inteligente, que se utilizan para calcular la cantidad de pasos que el usuario ha ejecutado y su orientación, tienden a captar señales falsas", matiza Folmer, que ha desarrollado videojuegos con ejercicios para ciegos: "Para verificar la localización, nuestro sistema combina algoritmos de probabilidad y la capacidad natural de las personas con discapacidad visual para la detección de puntos de referencia en su entorno a través del tacto, como las intersecciones de pasillos, puertas, escaleras y ascensores."
Folmer explica que, como los dispositivos de pantalla táctil son difíciles de usar para los usuarios con discapacidad visual, las direcciones se dan de forma sintética y los usuarios confirman la presencia de un punto de referencia por confirmación verbal o pulsando un botón en el teléfono o en un kit manos libres Bluetooth.
Una de las ventajas de este enfoque es que el usuario puede dejar el teléfono en el bolsillo dejando ambas manos libres para el uso de un bastón y el reconocimiento de señales táctiles.
"Esta es una mezcla muy interesante de disciplinas; se trata de usar al usuario como un sensor combinado con sofisticados algoritmos de localización del campo de la robótica", explica Folmer, del Laboratorio de Interacción Persona-Ordenador del departamento de Ingeniería Informática.
El equipo está tratando de implementar su sistema de navegación en otros entornos e integrarlo en los sistemas de navegación al aire libre que usan GPS.
La discapacidad como impulso
"Mi investigación está motivada por la creencia en que una discapacidad puede convertirse en un impulso para la innovación", afirma Folmer: "Cuando tratamos de resolver los problemas de diseño de interacción para los casos más extremos de usuarios, como los que tienen discapacidad visual, existe la posibilidad de descubrir soluciones que puedan beneficiar a todo el mundo. Aunque el sistema ha sido desarrollado específicamente para los usuarios con discapacidad visual, puede ser utilizado por los usuarios videntes también. "
Por su trabajo en este sistema de navegación bajo techo para ciegos, Bekris y Folmer ganaron recientemente un premio PETA Proggy (de progress, progreso) para Pioneros en Ciencia Ética. Estos premios reconocen los logros respetuosos con los animales. El sistema de navegación se consideró así, puesto que podría disminuir la necesidad de contar con perros guía.
Los dos científicos presentaron su investigación en la Conferencia Internacional IEEE de Robótica y Automatización en St. Paul, Minnesota, el 15 de mayo, y el siete de mayo en la Conferencia CM SIGCHI sobre el Factor Humano en los Sistemas Informáticos, que es la primera conferencia internacional sobre interacción hombre-ordenador.
"Mi investigación está motivada por la creencia en que una discapacidad puede convertirse en un impulso para la innovación", afirma Folmer: "Cuando tratamos de resolver los problemas de diseño de interacción para los casos más extremos de usuarios, como los que tienen discapacidad visual, existe la posibilidad de descubrir soluciones que puedan beneficiar a todo el mundo. Aunque el sistema ha sido desarrollado específicamente para los usuarios con discapacidad visual, puede ser utilizado por los usuarios videntes también. "
Por su trabajo en este sistema de navegación bajo techo para ciegos, Bekris y Folmer ganaron recientemente un premio PETA Proggy (de progress, progreso) para Pioneros en Ciencia Ética. Estos premios reconocen los logros respetuosos con los animales. El sistema de navegación se consideró así, puesto que podría disminuir la necesidad de contar con perros guía.
Los dos científicos presentaron su investigación en la Conferencia Internacional IEEE de Robótica y Automatización en St. Paul, Minnesota, el 15 de mayo, y el siete de mayo en la Conferencia CM SIGCHI sobre el Factor Humano en los Sistemas Informáticos, que es la primera conferencia internacional sobre interacción hombre-ordenador.