PDF Imprimir E-mail

Sistema Avanzado de Navegaci贸n (SAN) de asistencia a la movilidad y orientaci贸n de personas con discapacidad visual.

Programa nacional de Cooperaci贸n P煤blico-Privada - Subprograma INNPACTO, 2012-2015

IPT-2012-0961-300000

Motivaci贸n:

聽Con el desarrollo del sistema SAN se desea lograr que las personas con discapacidad visual cuenten con una soluci贸n tecnol贸gica que realice las siguientes tareas

1. Detecci贸n de obst谩culos para la movilidad mediante sensores de mapas de profundidad (3D).

2. Adecuaci贸n de las im谩genes de los obst谩culos y el entorno al punto de vista del usuario del sistema.

3. Representaci贸n del entorno y los obst谩culos detectados en forma de mapa t谩ctil y auditivo que provea una imagen de sustituci贸n sensorial a la persona discapacitada visual, de manera que le asista en la toma de decisiones relacionadas con su movilidad y orientaci贸n.

Para cumplir con estas prestaciones SAN consiste en la integraci贸n de tres subsistemas desarrollados hasta el momento: EAV (Espacio Ac煤stico Virtual), H谩ptico y Thor (text to Hearing Optical Recognition) como se muestra en la Figura 1.

EAV permite que la informaci贸n de los objetos y superficies presentes a la altura de la cabeza y tronco del usuario sea convertida en聽una representaci贸n聽auditiva especial, de modo que la persona ciega o con deficiencia visual puede percibir la ubicaci贸n y extensi贸n de lo captado bajo el campo de visi贸n del sistema.聽

H谩ptico est谩 dise帽ado para que la informaci贸n tridimensional del suelo, inmediatamente delante del usuario, se procese y transforme en un mapa cenital con relieves a diferentes alturas (+ 2mm). Dicho mapa es representado en un display t谩ctil, de tal forma que el usuario ciego tocar谩 una versi贸n a escala del suelo que tiene justo delante de 茅l, desde el plano cenital.

Thor permite reconocer la informaci贸n de tipo textual en tiempo real, de forma aut贸noma, y sobre escenarios complejos y no controlados. Para obtener las im谩genes se emplea una c谩mara de v铆deo de alta resoluci贸n y, utilizando t茅cnicas de visi贸n artificial, se procesan de forma continua las im谩genes de video para detectar, hacer seguimiento, extraer y reconocer el texto presente frente al usuario. El texto una vez reconocido es sintetizado como voz artificial y reproducido a trav茅s de los auriculares, en posiciones espaciales externalizadas y coherentes con la ubicaci贸n tridimensional del texto, utilizando la tecnolog铆a de espacializaci贸n sonora.

Figura 1 . Esquema de sistema SAN. La c谩mara y sensor de profundidad de entorno que se encuentra discretamente ubicado a la altura de la cabeza en (A), permite calcular el mapa de distancias de los objetos del entorno cercano. Las im谩genes y la informaci贸n de profundidad son enviadas a los subsistemas EAV y de reconocimiento de textos, transform谩ndose en se帽ales ac煤sticas espacializadas de representaci贸n de objetos y de texto (B), lo que ayuda al usuario a orientarse adecuadamente. El sensor de profundidad (C) permite calcular las distancias de los obst谩culos presentes a nivel del suelo y cercan铆as. Esta informaci贸n es procesada y enviada hacia el mapa t谩ctil tridimensional (D), donde el usuario puede percibir al tocar los t谩xeles una representaci贸n virtual de los objetos u obst谩culos del mundo real que se encuentran en su camino y puedan afectar su movilidad 漏.

Objetivo:

聽El objetivo de este proyecto es la implementaci贸n de un sistema precompetitivo avanzado, port谩til, ergon贸mico y de medio/bajo costo para la asistencia a la movilidad y orientaci贸n de personas con discapacidad visual, basado en la representaci贸n h谩ptica y auditiva de entorno y de la informaci贸n textual presente en la escena.

El dispositivo detectar谩 por un lado las caracter铆sticas y obst谩culos presentes en el entorno cercano, tales como escalones, huecos, etc. del suelo y objetos y superficies a la altura de la mirada del usuario, y por otro lado, el texto que se encuentre bajo el alcance de visi贸n del sistema.

Con este dispositivo, el usuario ciego o deficiente visual podr谩 anticipar la presencia y posici贸n de posibles obst谩culos y accidentes tanto del terreno como en el espacio superior al mismo, y moverse evitando colisionar con ellos, as铆 como tomarlos como referencia para planificar su trayectoria de navegaci贸n inmediata.

Entidades participantes:

聽Este proyecto I+D es un proyecto en cooperaci贸n entre Inform谩tica y Equipamiento M茅dico de Canarias, S.A聽(entidad coordinadora), el聽聽Grupo de Neuroqu铆mica y Neuroimagen聽de La聽Universidad de La Laguna y el聽Departamento de Ingenier铆a Mec谩nica del Instituto Tecnol贸gico de Canarias聽y ha sido cofinanciado por el Ministerio de Econom铆a y Competitividad, en el marco del聽Programa Nacional de cooperaci贸 P煤blico-Privada Subprograma INNPACTO聽con el apoyo del Fondo Europeo de Desarrollo Regional (FEDER).