Web de la ONCE

Estás en:

Desplazamiento basado en audio utilizando entornos virtuales: cuando la tecnología se combina con la neurociencia

L. B. Merabet, PhD; J. Sánchez, PhD 

  Descargar este artículo

 

Artículo publicado en la revista AER Journal: Research and Practice in Visual Imapirment and Blindness, vol. 2, n.º 3, verano de 2009, págs. 128-137, con el título Audio-Based Navigation Using Virtual Environments: Combining Technology and Neuroscience. Copyright © (2009) Association for Education and Rehabilitation of the Blind and Visually Impaired (AER). Versión española de Maria Dolores Cebrián-de Miguel, publicada con permiso del editor (Allen Press).

 

Resumen

Las posibilidades de desplazamiento autónomo de las personas ciegas están sujetas a la construcción de un mapa cognitivo espacial de su propio entorno. Para enseñar y mejorar tal habilidad cognitiva se han ideado diversos y novedosos enfoques tecnológicos. En este artículo se presentan métodos de navegación virtual basados en audio, y centrados en los propios usuarios, instrumentados mediante juegos de ordenador. La naturaleza inmersiva, participativa y altamente interactiva del software hace viable la creación de representaciones mentales espaciales que pueden transferirse a las tareas de desplazamiento en el mundo real y, adicionalmente, promover las habilidades creativas para la resolución de problemas. El desplazamiento con entornos virtuales actúa también como plataforma de verificación y fácil seguimiento para recopilar mediciones cuantificables y monitorizar el aprendizaje. La combinación de esta tecnología con la investigación en neurociencia puede emplearse para investigar los mecanismos del cerebro relacionados con el procesamiento sensorial, en ausencia de la visión.

Palabras clave

Autonomía personal. Tecnología de apoyo. Orientación y movilidad. Desplazamiento. Mapas cognitivos espaciales. Procesamiento sensorial. Navegación virtual. Juegos de ordenador.

Abstract

Audio-based Navigation Using Virtual Environments. Combining Technology and Neuroscience.

For individuals who are blind, navigation requires the construction of a cognitive spatial map of one’s surrounding environment. Novel technological approaches are being developed to teach and enhance this cognitive skill. Here, we discuss user-centered, audio-based methods of virtual navigation implemented through computer gaming. The immersive, engaging, and heavily interactive nature of the software allows for the generation of mental spatial representations that can be transferred to real-world navigation tasks and, furthermore, promotes creatitivity and problem-solving skills. Navigation with virtual environments also represents a tractable testing platform to collect quantifiable metrics and monitor learning. Combining this technology with neuroscience research can be used to investigate brain mechanisms related to sensory processing in the absence of vision.

Key words

Personal independence. Aids and appliances. Orientation and mobility. Navigation. Virtual navigation. Cognitive spatial maps. Sensory processing. Computer games.

 

Introducción

     Para mantenerse funcionalmente independientes es fundamenal que las personas ciegas adquieran buenas habilidades de desplazamiento. Pese a ello, sorprende comprobar el escaso trabajo realizado para averiguar cómo lleva a cabo el propio cerebro esta tarea cuando no existe visión. El entrenamiento en Orientación y Movilidad (OyM) es la formación convencional para la adquisición de estas habilidades, estando orientada hacia el desarrollo de estrategias de apoyo a la orientación, planificción de recorridos, actualización de información relativa a la posición personal, y a la reorientación para el restablecimiento de la línea de desplazamiento (Blasch, Wiener y Welsh, 1997).

     A efectos de realizar un desplazamiento eficaz, el sujeto ha de desarrollar su conciencia sensorial (es decir, adquirir la información sobre el mundo a través de las modalidades sensoriales que le queden) y sus habilidades de localización (para poder ubicar de forma eficaz los elementos o los emplazamientos), y mantenerse al tanto de las relaciones espaciales entre los objetos del entorno (Blasch et al., 1997; Loomis, Klatzky y Golledge, 2001; Welsh y Blasch, 1980). Por mapa cognitivo espacial se entiende se entiende la representación mental de un espacio externo (Landau, Gleitman y Spelke, 1981; Strelow, 1985; Tolman, 1948). Contrariamente a lo que sucede en las personas videntes, los sujetos con discapacidad visual profunda no pueden servirse de claves visuales para recopilar tal información, ni ordenar, ni clasificar visualmente su entorno físico. Por el contrario, la persona ciega ha de servirse de otros canales sensoriales para obtener la adecuada información espacial respecto a cuanto le rodea (Thinus-Blanc y Gaunet, 1997). De hecho, es opinión generalizada que la persona con ceguera (tanto si tiene ceguera congenita como si es sobrevenida) desarrolla estrategias conductuales compensatorias, a través del uso que hace de sus sentidos residuales (Carroll, 1961; Wagner-Lampi y Olivier, 1994).

     La teoría sobre la que se sustentan las habilidades para el desplazamiento en ausencia de la visión ha sido materia de intenso debate. Tradicionalmente se ha dado por supuesto que, dada la elevada dependencia de las pistas visuales, los sujetos ciegos (y, en especial, los niños que quedan ciegos a edades tempranas) han de tener, en consecuencia, dificultades cognitivas para la representación de entornos espaciales, y, por consiguiente, deficientes habilidades para el desplazamiento. Sin embargo, revisando la bibiliografía especializada se descubren resultados contradictorios (especialmente en relación con el papel que desempeña la experiencia visual previa), lo que pone en tela de juicio las conclusiones de esas primeras interpretaciones. De hecho, algunos estudios han concluído que no existen diferencias en términos de capacidad de representación e interactuación mental de las personas con ceguera con los entornos espaciales (Landau et al., 1981; Morrongiello, Timney, Humphrey, Anderson y Skory, 1995; Passini y Proulx, 1988), y de que, en ciertas tareas de desplazamiento espacial, los sujetos con ceguera profunda han demostrado poseer idénticos (Loomis et al., 2001) e incluso, en ciertos casos, superiores niveles de realización (Fortin et al., 2008) cuando se les ha comparado con sujetos de control videntes.

     Dados estos contradictorios resultados en relación con el rendimiento conductual y la capacidad de las personas con ceguera para compensar la falta de input sensorial visual, cabe preguntarse si las diferencias en los constructos mentales espaciales, y la habilidad para el desplazamiento, son únicamente debidos a la propia carencia visual (y factores evolutivos concomitantes, tales como la sincronización y la profundidad de la pérdida de vision) o si reflejan un empobrecimiento o adquisición incompleta de la necesaria información espacial, a través de otros canales sensoriales. Desde el punto de vista de la rehabilitación, quizá lo que se echa en falta es una mejor vía para acceder, manipular, y transferir la información adquirida, un vacío que potencialmente podría rellenarse mediante el empleo de la adecuada tecnología. En este punto, lo que proponemos es analizar en qué medida la combinación de entornos virtuales informatizados y la investigación en neurociencias podría contribuir a dar respuesta a tales cuestiones, vía desarrollo de estrategias de entrenamiento, científicamente verificables mediante test, diseñadas para mejorar las habilidades de desplazamiento de personas con grave discapacidad visual. El enfoque podría describirse como: enfoque centrado en el usuario, de inmersión, basado en audio y estrategia interactiva, orientado al desarrollo de nuevos y trazables enfoques rehabilitadores para la mejora del desplazamiento espacial, las habilidades para resolución de problemas, y la confianza global. En segundo lugar, observando la actividad cerebral asociada al desplazamiento virtual (empleando modernas y actuales metodologías de neuroimagen) podemos empezar potencialmente a desvelar los mecanismos asociados al funcionamiento del desplazamiento, así como a la forma en que el cerebro se adapta y realiza tal tarea cuando falta la visión.

Desplazamiento con entornos virtuales basados en audio

     Respecto al desplazamiento, la información captada por el sonido resulta muy importante para desarrollar el sentido de la orientación y la distancia espacial, y también para detectar y evitar obstáculos (Ashmead, Hill y Talor, 1989; Rieser, 2008). Los anteriores trabajos realizados sobre sujetos ciegos han demostrado que la información espacial que se obtiene mediante novedosos enfoques basados en ordenador, utilizando el sonido (Ohuchi, Iwaya, Suzuki y Munekata, 2006; Riehle, Lichter y Giudice, 2008) y la información táctil (Johnson y Higgins, 2006; Lahav, 2006; Pissaloux, Maingreaud, Velazquez y Hafez, 2006), pueden resultar de utilidad en el desarrollo de habilidades para el desplazamiento. Igualmente, muchos de los avances realizados en materia de tecnología informática han mejorado, en general, la accesibilidad a la información. Por ejemplo, muchos sujetos con discapacidad visual están familiarizados con los sistemas basados en tecnología del habla (por ejemplo, lectores de pantalla o interfaces TTS [Text To Speech, de texto a voz/sintetizadores de voz]), y con la información contextual no hablada (es decir, alertas que utilizan sonidos asociativos y reales). Respecto al aprendizaje contextualizado, los entornos y simuladores virtuales (como los simuladores de vuelo para la formación de los pilotos) han atraído el interés general por su condición de novedosos medios para interactuar con información compleja a la que se accede mediante múltiples frames de referencia (es decir, perspectivas egocéntricas frente a alocéntricas) y para la transferencia de conocimiento de una situación a otra (Dede, 2009). En una serie de estudios en curso hemos introducido estos conceptos con el objetivo de desarrollar entornos virtuales basados en audio, como medio para enseñar, motivar y desarrollar las habilidades para el desplazamiento en el espacio de sujetos con grave discapacidad visual. En concreto, interactuando con claves auditivas que describen y caracterizan un determinado entorno (por ejemplo, utilizando sintetizadores de voz para proporcionar la información que figura en el encabezamiento o para identificar un obtáculo encontrado) y con el alineamiento conceptual de las caraterísticas espaciales, empleando información basada en audio (por ejemplo, utilizando claves espectrales de estéreo para contribuir a localizar la ubicación de un objeto en el espacio), un usuario con ceguera profunda puede aprender a desplazarse por una ruta relativamente compleja (Sánchez y Sáenz, 2006). En este enfoque, lo fundamental es el hecho de que la información espacial basada en audio se adquiere secuencialmente, dentro del contexto, y mediante una interfaz altamente interactiva que implica plenamente al usuario en la exploración activa de un determinado entorno y en la construcción efectiva y eficiente de un mapa cognitivo espacial. Por esta vía, se llega entonces a la fascinante posibilidad de que la información espacial conseguida a través de la simulación virtual pueda trasladarse a la habilidad global para la mejora del desplazamiento en situaciones reales. En los siguientes apartados de este artículo se describen una serie de aplicaciones informáticas desarrolladas con tal propósito, así como el proceso mental que ha llevado hasta las actuales líneas de colaboración para la investigación en este ámbito.

AudioDoom

     AudioDoom es un juego para ordenador, basado en audio, creado para propiciar el juego en niños con ceguera y mejorar su desplazamiento espacial y sus habilidades para la resolución de problemas (Snchez y Lumbreras, 1998). Este juego se inspira muy de cerca en un popular juego de video para ordenador denominado Doom (Id Software, Mesquite, TX). En él, el jugador se desplaza por un laberinto de muros y pasillos predeterminado, ubicando varios elementos y evitando monstruos para poder encontrar su camino hasta un portal de salida y empezar así el siguiente nivel. Lo fundamental para ganar en este juego es mantener un mapa mental interno respecto a la ubicación espacial de los objetos que se van encontrando, así como el contacto con las zonas ya exploradas. En pocas palabras, la versión en audio del juego (AudioDoom; Sánchez y Lumbreras, 1998) funciona prácticamente de la misma forma, pero comporta el uso de claves del espectro sonoro (p. ej., llamadas con nudillos en las puertas y sonidos de pasos) como modo de adquirir información del contexto espacial relacionado con el entorno del sujeto, durante el tiempo de realización del juego. El jugador, haciendo uso del teclado, ratón o joystick, puede desplazarse en cualquier dirección (hacia delante o girando a la derecha o a la izquierda) e interactuar con el entorno paso a paso (es decir, por medio de una serie de “encuentros” secuenciales) para avanzar por un pasillo, atravesar una puerta, coger un tesoro, etc. La estructura del juego organiza el nivel en varios pasillos predeterminados, vías sin salida y caminos, dando la sensación de que todo el área se configura en un espacio tridimensional (Figura 1A). Como las vías que hay que explorar quedan supeditadas al uso de pasillos y no al de auténticos espacios abiertos, el jugador puede mantener su sentido de la orientación y dirección. De esta forma, jugando en un mundo virtual auditivo y tridimensional equivalente, el usuario construye una representación mental espacial basada en estos encuentros causales y secuenciales, dentro de un marco de desplazamiento dirigido a una meta (Sánchez y Lumbreras, 1998).

     En un estudio anterior, Sánchez y Lumbreras (1998) hallaron que todos los niños con ceguera (n = 7, entre 8 y 11 años de edad, todos ellos con ceguera profunda adquirida a edad temprana) que jugaban al AudioDoom, lo consideraban muy divertido (según la evaluación efectuada sobre los cuestionarios subjetivos que se les pasaron). Curiosamente, los profesores supervisores también describieron de forma subjetiva que los niños ciegos que habían jugado presentaron una mejora en sus capacidades cognitivas, habilidades para la resolución de problemas, y un sentido global de confianza en sí mismos que era transferido a otras áreas del trabajo que realizaban en el curso (Sánchez y Lumbreras, 1998). Sin embargo, y lo que quizá resultó más interesante, fue el hecho de que, siguiendo con el juego, los participantes en él fueron capaces de crear representaciones táctiles del camino que seguían en su desplazamiento por el interior del juego (es decir, utilizando bloques de Lego®; Figura 1B). Al comparar sus construcciones finales con el entorno visual de referencia se comprobó que eran capaces de representar con precisión los encuentros y vías de desplazamiento que habían seguido (Figura 1C), sugiriendo un alto grado de fidelidad en los mapas espaciales cognitivos que habían generado mientras jugaban.

     Tales observaciones, realizadas durante la prueba de campo inicial en AudioDoom, son importantes para nuestro planteamiento general sobre la habilidad para el desplazamiento. En concreto, y en primer lugar, demuestran que la información auditiva puede proporcionar claves precisas que describan entornos espaciales y relaciones entre los objetos, y, en segundo lugar, que los usuarios del juego que tengan ceguera profunda pueden generar mapas cognitivos espaciales precisos, basados en información auditiva, utilizando un entorno virtual interactivo y envolvente. Además, tal naturaleza del juego, no solo aporta un importante elemento de motivación, sino que también demuestra que los constructos cognitivos espaciales pueden aprenderse implícitamente, y de forma bastante sencilla, mediante la interacción causal con el software.

 

Figura 1. Interactuando con AudioDoom. (A) Figura que ilustra el nivel de objetivos de un juego con pasillos, puertas, callejones sin salida y objetos. (B) Tras interactuar con AudioDoom, se requiera del niño que cree un modelo del nivel explorado, utilizando piezas de Lego® que representan distintos objetos (figura insertada). (C) La reconstrucción del nivel, por parte del niño, es una copia exacta del nivel objetivo representado en (A). Figuras modificadas procedentes de Sánchez y Sáenz (2006)

 

 

 


AudioMetro

     Paralelamente a AudioDoom, se ha creado otra interfaz de software basado en audio, con el objetivo de ayudar a usuarios con discapadid visual a organizarse y preparar un recorrido antes de viajar en el propio metro. Este software interactivo, de nombre AudioMetro, está basado en el metro de la ciudad de Santiago de Chile aunque, en principio, pueda representar a cualquier suburbano (Sánchez y Maureira, 2007). La interacción con AudioMetro se basa en una metáfora que simula el desplazamiento en un coche de metro. La metáfora toma en cuenta distintas nociones de estaciones sucesivas, estaciones de transferencia y estaciones terminales, y permite que el usuario simule la experiencia de un viaje completo de principio a fin. Como sucede en la mayoria de las redes de ferrocarriles suburbanos, el desplazamiento entre dos estaciones es secuencial, y se realiza a lo largo de una línea específica que cubre ambas direcciones. Las estaciones de transferencia constan de distintos niveles, en los que cada una de las líneas se ubica en su propio nivel. En una sesión convencional, el usuario ha de elegir primero las estaciones de salida y llegada del viaje, utilizando un menú interactivo (introducción por teclado e interfaz TTS de conversión de texto a voz; Figura 2). El software calcula entonces, de forma automática, la mejor ruta desde la estación de partida a la de llegada. En la segunda fase, el usuario viaja virtualmente por el interior de una red metropolitana, empezando desde el punto de partida, siguiendo por estaciones consecutivas, y haciendo las transferencias adecuadas hasta llegar, finalmente, al destino deseado. El software contiene un flujo de información secuencial y unidireccional inherente que permite al usuario explorar la red suburbana y las referencias asociadas que le han sido proporcionadas a través de un sistema de retroalimentación en audio. Consiguientemente, los usuarios se pueden auto-familiarizar con la organización básica de un sistema de ferrocarril metropolitano y reforzar importantes conceptos, tales como: distancia relativa entre estaciones, puntos de transferencia adecuados, plataformas asociadas a cada línea, y referencias e instalaciones más importantes que existen en las distintas estaciones.

     Para evaluar la usabilidad y validez de dicho software, Sánchez y Maureira (2007) reclutaron siete participantes (de edades comprendidas entre los 15 y 32 años, todos ellos con ceguera legal y con distintos grados de funcionalidad visual residual). En resumen, los autores hallaron que los usuarios del AudioMetro eran capaces de planificar inicialmente su viaje y, con el tiempo, constuir una representación mental de la organización y diseño general de la red metropolitana y de las interconexiones de las distintas líneas (como se comprobó mediante la construcción del modelo táctil). Además, los usuarios fueron capaces de implementar el conocimiento adquirido al viajar independientemente a través de una serie de escenarios del test sin necesidad de contar con la presencia de un guía. Los usuarios también aludieron a un mayor sentido de autonomía y competencia a la hora de hacer uso de la red metropolitana (evaluadas mediante escalas de puntuación subjetiva) (Sánchez y Maureira, 2007). Los resultados obtenidos con AudioMetro sugieren que el software interactivo basado en audio puede utilizarse para acceder a la información, y también para simular y representar hasta el final hipotéticos escenarios que pueden, potencialmente, traducirse en habilidades de desplazamiento mejoradas. Además, la generación de estas representaciones mentales puede hacerse a gran escala y corresponderse con entornos del mundo real. Finalmente, al igual que en el caso del AudioDoom, el uso de metáforas de juego y la interactiva e inmensa naturaleza del software actúan como poderosos y motivadores incentivos para su utilización.


Figura 2. Interactuación con AudioMetro. (A) Sección del mapa del metro de Santiago de Chile. Se indica el desplazamiento desde la Universidad de Santiago a la estación de Santa Lucía. (B) Una interfaz de usuario para selección del origen y destino del viaje deseado. (C) Simulación de viaje en el metro. Figuras modificadas de las de Sánchez y Maureira (2007)

 

 

 

 

 

Simulador de entorno basado en audio

     Al construir y combinar las potencialidades y los enfoques del software anteriormente mencionado, se estableció la hipótesis de que los usuarios con discapacidad visual profunda, que interactúan con un entorno visual que representa a un lugar real (p. ej., un edificio en una determinada escuela), no solo pueden crear un preciso mapa cognitivo espacial de ese lugar, sino que potencialmente pueden transferir incluso tal información espacial adquirida a una tarea de desplazamiento en el mundo real a gran escala. Lo fundamental para demostrar esta premisa sería poder desarrollar una plataforma de software flexible y modificable que aproveche las ventajas asociadas tanto a las metáforas del juego como a la navegación virtual interactiva. En línea con estos conceptos, actualmente estamos investigando la posibilidad y eficacia del uso de un software para el desplazamiento virtual basado en audio, el Audio-Based Environment Stimulator (AbES) (Sánchez, Tadres, Pascual-Leone y Merabet, 2009). Este software es parecido a los anteriormente descritos en cuanto a sus capacidades interactivas y de desplazamiento basado en audio, pero con la incorporación de un editor de planos de planta que permite al investigador generar virtualmente cualquier espacio físico deseado, incluyendo habitaciones abiertas y pasillos, varios pisos y mobiliario y obstáculos (Figure 3). El software incorpora también varios métodos de recogida de datos que pueden utilizarse para evaluar el rendimiento conductual (p. ej., reconstrucción de la ruta de desplazamiento seguida, con inclusión del tiempo que se ha tardado en llegar hasta el punto de destino, la distancia recorrida y los errores cometidos). El entorno virtual se mide de forma que cada paso dado represente un paso típico en el espacio físico real. Haciendo uso de un teclado, el usuario explora virtualmente el edificio, desplazándose por el entorno y escuchando las adecuadas claves espectrales tras cada uno de los pasos dados (es decir, por el canal estéreo izquierdo se escucha el sonido de una llamada con los nudillos, mientras que la persona que juega atraviesa una puerta situada en la parte izquierda, y la subida de una escalera se asocia a los pasos secuenciales de un sonido in crescendo). La orientación se basa en el rumbo de los cuatro puntos cardinales, definiéndose, en términos relativos, el “Norte” como la dirección del movimiento hacia delante cuando uno entra en el espacio virtual. Los usuarios han expresado que perciben su movimiento en el espacio virtual como “hacia delante”, y que por ello el empleo de términos cardinales para las direcciones les parecen adecuados. El usuario también cuenta con una tecla “¿Dónde estoy?” que puede pulsarse en cualquier momento para acceder a una información, basada en TTS, que describe su localización, orientación y dirección actual en el interior del edificio, así como la identidad de los objetos y obstáculos que va encontrando en su recorrido. Como prueba de tal principio, los datos piloto obtenidos en uno de los temas del test (ceguera temprana y 32 años de edad en el momento de realización del estudio) sugieren que, aproximadamente, tras 40-60 minutos de interactuar con el AbES, el usuario estaba plenamente capacitado para supervisar y explorar virtualmente el plano general del edificio y la ubicación de los objetos buscados. Además, el sujeto podía demostrar la transferencia de un conocimiento cognitivo espacial en una tarea de desplazamiento en el mundo real, mediante la localización de objetos de una habitación en el propio edificio físico.

     Otra característica específica es que el AbES puede emplearse en dos modos distintos: en modo “desplazamiento dirigido”, o en modo “juego” (o “exploración abierta”). En el modo de “desplazamiento dirigido”, un facilitador sitúa al usuario en cualquier lugar del interior del edificio y le dirige hasta el destino previsto para simular el desplazamiento y la exploración del edificio. En el modo “juego”, el usuario interactúa por sí solo con el mundo virtual (es decir, sin un facilitador) con el propósito de explorar todo el edificio para recoger piedras preciosas escondidas, mientras evita que los monstruos que vagabundean por el espacio puedan, potencialmente, quitarle las piedras y esconderlas en otro lugar (Figura 3B). Así pues, en cualquiera de los modos, los usuarios interactúan con el entorno virtual para conseguir información espacial y generar un mapa cognitivo de dicho entorno espacial. No obstante, dada la naturaleza implícita de la información espacial adquirida a través del juego, hemos supuesto que la construcción de tales mapas cognitivos espaciales bien pudiera ser diferente, dependiendo del modo del juego. En otras palabras, que el AbES activado en el modo juego está, efectivamente, diseñado para promover la total exploración del edificio y, por tanto, para aumentar la creatividad y el desarrollo de habilidades espaciales de “alto nivel” (Blasch et al., 1997). Por otra parte, formulamos la hipótesis de que los sujetos que interactúan con el AbES, en modo desplazamiento directo, generarán constructos espaciales limitados a las rutas que de hecho encuentren y a la forma definida por el facilitador. Este último punto es de especial importancia, no solo en términos de generación de mapas cognitivos espaciales, sino porque afecta también a la seguridad. No sería descabellado presuponer que los sujetos que cuentan con mapas cognitivos espaciales “sólidos” de su entorno son, previsiblemente, más flexibles en pensamiento espacial, y que por ello pueden abordar, cuando es necesario, rutas de desplazamiento alternativas, en vez de confiar únicamente en la memoria de rutina. El trabajo actual va dirigido a investigar tales hipótesis mediante la evaluación de la capacidad que tienen los sujetos para transferir su información espacial, obtenida desde un entorno virtual, al físico real, y como una función del modo de obtención de tal información.


Figura 3. El mundo real y el virtual con AbES. (A) Planos auténticos de un edificio objetivo. (B) Plano virtural de la planta en modo de juego AbES que presenta varios objetos con los que interactúa el sujeto[1]

 

 

 

 

 

 

Combinar la tecnología con la neurociencia: observando el cerebro en acción

     Conforme decíamos en la introducción, por lo general se cree que, en ausencia de la visión, el sujeto desarrolla estrategias compensatorias, utilizando sus sentidos restantes de forma más eficaz para seguir manteniendo así un funcionamiento independiente (Carrol, 1961; Wagner-Lampl y Oliver, 1994). En línea con esta opinión, la creciente evidencia científica sugiere en la actualidad que tales habilidades adaptativas se desarrollan en paralelo a los cambios que se producen en el propio cerebro (Bavelier y Neville, 2002; Pascual-Leone, Amedi, Fregni y Merabet, 2005). Lo que actualmente se da por seguro es que tales cambios no solo implican a las áreas del cerebro que se dedican al procesamiento de la información, procedentes de los restantes sentidos (como el tacto y el oído), sino a las regiones del cerebro que normalmente se asocian con el análisis de la información visual (Merabet, Rizzo, Amedi, Somers y Pascual-Leone, 2005; Theoret, Merabet y Pascual-Leone, 2004). Es decir, comprender cómo cambia el cerebro en respuesta a la ceguera nos enseña algo, en última instancia, sobre cómo compensan los sujetos la pérdida de la visión. Esta “neuroplasticidad” o “revisión” del cerebro puede así explicar las capacidades conductuales compensatorias, superiores en algunos casos a las que algunos aluden cuando se habla de las personas con ceguera, entre ellas la superior agudeza para la discriminación táctil (Alan et al., 2008; Van Boven, Hamilton, Kauffman, Keenan y Pascual-Leone, 2000), la localización del sonido (Ashmead et al., 1998; Gougoux et al., 2004; Lessard, Pare, Lepore y Lassonde, 1998) y la recuperación de la memoria verbal (Amedi, Raz, Pianka, Malach y Zohary, 2003).

     La evidencia del restablecimiento funcional y compensatorio de áreas visuales para procesar otras modalidades sensoriales en ausencia de visión procede, en gran medida, de estudios sobre la neuroimagen (Theoret et al., 2004). Modernas técnicas de representación del cerebro, como la imagen por resonancia magnética funcional (IRMf),[2] pueden identificar zonas del cerebro que están asociadas a una determinada tarea conductual. La habilidad para el desplazamiento, por ejemplo, ha sido ampliamente estudiada en sujetos videntes (Maguire et al., 1998), habiéndose identificado las estructuras fundamentales del cerebro subyacentes en esta habilidad (como las del hipocampo y las áreas corticales parietales). Sin embargo, se sabe muy poco sobre cómo esas mismas áreas correspondientes del cerebro están relacionadas con el rendimiento de sujetos con ceguera en sus desplazamientos, a resultas de los cambios neuroplásticos que se producen tras la pérdida de la visión. Para ayudarnos a desvelar esta incógnita, hemos adaptado el juego AbES para poder jugar desde un escaner IRMf (Figura 4A). Nuevamente, como prueba de tal concepto, hemos demostrado que la interactuación del AbES dentro del entorno del escáner (haciendo la prueba con un sujeto vidente) conduce a la activación de la tarea selectiva de determinadas zonas del cerebro, relacionadas con la habilidad para el desplazamiento. En concreto, cuando el sujeto escucha las instrucciones orales que le describen su destino deseado, se observa actividad cerebral localizada en el interior de las regiones auditivas del cerebro. Cuando a esa misma persona se le pide que camine aleatoriamente por el entorno virtual (es decir, sin un objetivo determinado), se ve que la actividad asociada en el cerebro a las áreas senso-motrices está relaciona con las presiones básicas de la mano. Sin embargo, cuando a la misma persona se le pide en ese momento que se desplace desde una ubicación predeterminada a un lugar concreto, se observa un significativo aumento de la actividad cerebral, que no solo afecta a las regiones auditivas y senso-motrices del cerebro, sino también a las regiones del córtex visual (para visualizar la ruta) y al córtex frontal (utilizado en la toma de decisiones), córtex parietal (relevante para tareas espaciales), e hipocampo (implicado en el desplazamiento y la memoria espacial) (Figura 4B). El siguiente paso, en el que se está trabajando, es el de comparar los patrones de activación cerebral asociados a la navegación virtual en sujetos con visión (a través de la visión y a través del oído solamente), con los de sujetos con ceguera total (de aparición temprana o tardía). De especial interés será el papel que juegan las áreas visuales que se relacionan con la plasticidad y el rendimiento general para el desplazamiento. Por ejemplo, ¿existe alguna correlación entre una mayor actividad del córtex visual y un gran rendimiento para el desplazamiento, al margen de la situación visual y/o experiencia visual previa? Más aún, ¿cómo cambian los patrones de activación y las conexiones del cerebro a lo largo del tiempo, puesto que los sujetos siguen aprendiendo y mejorando en habilidades globales para el desplazamiento? ¿Existen zonas determinadas —o patrones— de actividad cerebral que pueden ayudar a identificar “buenos navegadores” a partir de patrones típicos de “navegadores insuficientes”? Estas, al igual que otras muchas e interesantes preguntas, quedan pendientes de respuesta para futuras investigaciones.


Figura 4. Actividad cerebral asociada al desplazamiento. (A) Sujeto ciego inclinado sobre un escáner que interactúa con el software de navegación AbES. (B) Activación de las áreas corticales durante la navegación con AbES. En las áreas implicadas con el desplazamiento activo se incluyen las áreas senso-motrices y el córtex auditivo, así como las áreas (no mostradas) frontales, visuales y del hipocampo[3]

 

 

 

 

 

Conclusiones y líneas de investigación futura

     El entrenamiento en OyM sigue siendo un pilar de la rehabilitación de las personas con ceguera, que con una capacitación rigurosa y sistemática pueden conseguir la independencia funcional. No obstante, es muy importante que las estrategias de entrenamiento sigan siendo flexibles y adaptables para que se puedan aplicar a nuevas y desconocidas situaciones. Además, el entrenamiento debe diseñarse a la medida de las propias fortalezas y debilidades de los sujetos para que estos puedan abordar sus retos, necesidades y estrategias de aprendizaje personales. El uso creativo de entornos de navegación virtual interactivos, como es el caso de los enfoques basados en software que aquí se presentan, al igual que otras estrategias (por ejemplo, representaciones táctiles; Ungar, Blades y Spencer, 1995; ver también Blasch et al., 1997), puede contribuir a tal flexibilización y añadir contenido a los actuales currículos de formación teórico-práctica en OyM. Por supuesto que pueden darse notables diferencias entre las mejoras conductuales obtenidas, aunque sean virtuales, si las comparamos con los desplazamientos físicos reales. Por ejemplo, el entrenamiento virtual para el desplazamiento, en el seno de un entorno controlado, da la opción de experimentar con múltiples escenarios, al tiempo que, potencialmente, alivia el estrés y los riesgos asociados a este. Inversamente, puede que existan ventajas inherentes asociadas a la actual realización de movimientos físicos en situaciones reales que, en última instancia, se traduzcan en una mejor planificación motriz y en una potencial consolidación de habilidades relacionadas con las tareas de OyM. Insistimos en que aquí no se defiende la sustitución de las actuales técnicas rehabilitadoras con entrenamiento virtual. Por el contrario, lo que se propone es una estrategia conjunta que no solo recurra a los beneficios de manejar una alta motivación, sino que también proporcione una plataforma de evaluación para llevar a cabo estudios más controlados y cuantificables, incluyendo investigaciones basadas en las neurociencias.

     Se han descrito aquí una serie de programas de software basados en audio, y entornos virtuales diseñados para servir de novedosos enfoques orientados a la rehabilitación, al objeto de mejorar el desplazamiento espacial, las habilidades para la resolución de problemas, y la confianza global en sujetos con discapacidad visual. Se sigue investigando la viabilidad, la eficacia y los beneficios potenciales derivados de aprender a desplazarse por entornos que resultan familiares, utilizando sistemas de juego virtual basados en audio. Paralelamente, se están desarrollando métodos para cuantificar las ganancias conductuales, así como para desvelar los mecanismos del cerebro asociados a las habilidades para el desplazamiento. Una dirección clara de lo que debe ser la investigación futura radicará en comprender qué aspectos de la información espacial adquirida son de hecho transferidos desde los entornos virtuales a los reales, y cuáles son las condiciones que promueven esa transferencia (Peruch, Belingard y Thinus-Blanc, 2000). Además, comprender cómo el cerebro crea mapas cognitivos espaciales, como función de la modalidad de aprendizaje a lo largo del tiempo y de la propia experiencia y motivación del sujeto, tendrá una potencial e importante repercusión en términos de cómo se realiza la rehabilitación y, en última instancia, de cúales serán los logros globales de la rehabilitación del sujeto.

     En un futuro, el trabajo que se realice en este terreno tendrá que seguir haciendo uso del enfoque multidisciplinar, basado en la experiencia de los rehabilitadores de las personas con ceguera, de los profesionales clínicos y de los desarrolladores tecnológicos, al igual que de neurocientíficos, psicólogos conductistas y sociólogos. En nuestra opinión, promoviendo aún más el intercambio de ideas se llegará a mejorar la calidad de vida de las personas con discapacidad visual y nuesta compresión del enorme potencial adaptativo del cerebro.

Agradecimientos

     La ayuda económica para el trabajo que aquí se presenta procede de una beca K 23 EY016131 del National Eye Institute (concedida a Lofti B. Merabet) y del Fondo Nacional de Desarrollo Científico y Tecnológico de Chile, Fondecyt 1090352, y también del proyecto CIE-05 del Programa Bicentenario de Ciencia y Tecnología (PBCT) de la Comisión Nacional de Investigación Científica y Tecnológica (CONICYT) de Chile (otorgado a Jaime Sánchez). Los autores desean expresar su agradecimiento a Rabih Dow, Maria Goldstein, Joe Quintanilla, y al personal del Carroll Center for the Blind de Newton (Massachusetts, EE. UU.), por su continuo entusiasmo y apoyo. Los autores también quieren agradecer a Mark A. Halko su ayuda en los estudios sobre neuroimagen, y a Darick Wright y Richard Long sus comentarios en la preparación del manuscrito de este artículo.

Referencias bibiliográficas

Alary, F., Goldstein, R., Duquette, M., Chapman, C. E., Voss, P., y Lepore, F. (2008). Tactile acuity in the blind: A psychophysical study using a two-dimensional angle discrimination task. Experimental Brain Research, 187, 587-594.

Amedi, A., Raz, N., Pianka, P., Malach, R., y Zohary, E. (2003). Early “visual” cortex activation correlates with superior verbal memory performance in the blind. Nature Neuroscience, 6, 758-766.

Ashmead, D. H., Hill, E. W., y Talor, C. R. (1989). Obstacle perception by congenitally blind children. Perception and Psychophysics, 46, 425-433.

Ashmead, D. H., Wall, R. S., Ebinger, K. A., Eaton, S. B., Snook-Hill, M. M., y Yang, X. (1998). Spatial hearing in children with visual disabilities. Perception, 27, 105-122.

Bavelier, D., y Neville, H. J. (2002). Cross-modal plasticity: Where and how? Nature Reviews: Neuroscience, 3, 443-452.

Blasch, B. B., Wiener, W. R., y Welsh, R. L. (1997). Foundations of orientation and mobility, (2.ª ed.), Nueva York, NY: AFB Press.

Carroll, Thomas J. (1961). Blindness: What it is, what it does, and how to live with it. Boston, MA: Little, Brown.

Dede, C. (2009). Immersive interfaces for engagement and learning. Science, 323, 66-69.

Fortin, M., Voss, P., Lord, C., Lassonde, M., Pruessner, J., y Saint-Amour, D. (2008). Wayfinding in the blind: Larger hippocampal volume and supranormal spatial navigation. Brain, 131, 2995-3005.

Gougoux, F., Lepore, F., Lassonde, M., Voss, P., Zatorre, R. J., y Belin, P. (2004). Neuropsychology: Pitch discrimination in the early blind. Nature, 430, 309.

Johnson, L. A., y Higgins, C. M. (2006). A navigation aid for the blind using tactile-visual sensory substitution. Conference Proceedings IEEE Engineering in Medicine and Biology Society, 1, 6289-6292.

Lahav, O. (2006). Using virtual environment to improve spatial perception by people who are blind. Cyberpsychology and Behavior, 9, 174-177.

Landau, B., Gleitman, H., y Spelke, E. (1981). Spatial knowledge and geometric representation in a child blind from birth. Science, 213, 1275-1278.

Lessard, N., Pare, M., Lepore, F., y Lassonde, M. (1998). Early-blind human subjects localize sound sources better than sighted subjects. Nature, 395, 278-280.

Logothetis, N. K. (2008). What we can do and what we cannot do with fMRI. Nature, 453, 869-878.

Loomis, J. M., Klatzky, R. L., y Golledge, R. G. (2001). Navigating without vision: Basic and applied research. Optometry and Vision Science, 78, 282-289.

Maguire, E. A., Burgess, N., Donnett, J. G., Frackowiak, R. S., Frith, C. D., y O'Keefe, J. (1998). Knowing where and getting there: a human navigation network. Science, 280, 921-924.

Merabet, L. B., Rizzo, J. F., Amedi, A., Somers, D. C., y Pascual-Leone, A. (2005). What blindness can tell us about seeing again: Merging neuroplasticity and neuroprostheses. Nature Reviews: Neuroscience, 6, 71-77.

Morrongiello, B. A., Timney, B., Humphrey, G. K., Anderson, S., y Skory, C. (1995). Spatial knowledge in blind and sighted children. Journal of Experimental Child Psychology, 59, 211-233.

Ohuchi, M., Iwaya, Y., Suzuki, Y., y Munekata, T. (2006). Cognitive-map formation of blind persons in a virtual sound environment. Ponencia presentada en las actas del 12th International Conference on Auditory Display, Londres, Reino Unido.

Pascual-Leone, A., Amedi, A., Fregni, F., y Merabet, L. B. (2005). The plastic human brain cortex. Annual Review of Neuroscience, 28, 377-401.

Passini, R., y Proulx, G. (1988). Wayfinding without vision. Environment and Behavior, 20, 227-252.

Peruch, P., Belingard, L., y Thinus-Blanc, C. (2000). Transfer of spatial knowledge from virtual to real enviroments. Spatial Cognition, 2, 253-264.

Pissaloux, E., Maingreaud, F., Velazquez, R., y Hafez, M. (2006). Space cognitive map as a tool for navigation for visually impaired. Conference Proceedings IEEE Engineering in Medicine and Biology Society, 1, 4913-4916.

Riehle, T. H., Lichter, P., y Giudice, N. A. (2008). An indoor navigation system to support the visually impaired. Conference Proceedings IEEE Engineering in Medicine and Biology Society, 1, 4435-4438.

Rieser, J. J. (2008). Blindness and brain plasticity in navigation and object perception. Nueva York, NY: Lawrence Erlbaum Associates/Taylor Francis Group.

Sánchez, J., y Lumbreras, M. (1998). 3D aural interactive hyperstories for blind children. International Journal of Virtual Reality, 4, 20-28.

Sánchez, J., Maureira, E. (2007). Subway mobility assistance tools for blind users. En: Stephanidis, C., y Pieper, M. Lecture notes in computer science, LNCS 4397, 386-404.

Sánchez, J., y Sáenz, M. (2006). Three-dimensional virtual environments for blind children. Cyberpsychology and Behavior, 9, 200-206.

Sánchez, J., Tadres, A., Pascual-Leone, A., y Merabet, L. B. (2009). Blind children navigation through gaming and associated brain plasticity. Ponencia presentada en la Virtual Rehabilitation 2009 International Conference, Haifa, Israel.

Strelow, E. R. (1985). What is needed for a theory of mobility: Direct and cognitive maps—Lessons from the blind. Psychological Review, 92, 226-248.

Theoret, H., Merabet, L., y Pascual-Leone, A. (2004). Behavioral and neuroplastic changes in the blind: evidence for functionally relevant cross-modal interactions. Journal of Physiology, Paris, 98, 221-233.

Thinus-Blanc, C., y Gaunet, F. (1997). Representation of space in blind persons: Vision as a spatial sense? Psychological Bulletin, 121, 20-42.

Tolman, E. C. (1948). Cognitive maps in rats and men. Psychological Review, 55, 189-208.

Ungar, S., Blades, M., y Spencer, C. (1995). Mental rotation of a tactile layout by young visually impaired children. Perception, 24, 891-900.

Van Boven, R. W., Hamilton, R. H., Kauffman, T., Keenan, J. P., y Pascual-Leone, A. (2000). Tactile spatial resolution in blind braille readers. Neurology, 54, 2230-2236.

Wagner-Lampl, A., y Oliver, G. W. (1994). Folklore of blindness. Journal of Visual Impairment and Blindness, 88, 267-276.

Welsh, R. L., y Blasch, B. B. (1980). Foundations of orientation and mobility. Nueva York, NY: American Foundation for the Blind.


 
 
Lotfi B. Merabet, PhD
Beth Israel Deaconess Medical Center, Harvard Medical School, Boston, MA (EE. UU.).
Correo electrónico: lmerabet@bidmc.harvard.edu
  
Jaime Sánchez, PhD
Departamento de Ciencias de la Computación, Universidad de Chile, Santiago (Chile).
 
  
 

Notas

[1] La traducción de los rótulos de la figura 3B es la siguiente: player (facing north) = Jugador (mirando hacia el Norte); monster = monstruo; stairwell = caja de la escalera; exit = salida; door = puerta; jewel = joya. (N. de la T.)

[2] Las técnicas de neuroimagen, como la IRMf (Imagen por Resonancia Magnética funcional) permiten hacer un seguimiento más cercano y objetivo de los fenómenos relacionados con el rendimiento conductual del cerebro humano. A diferencia de las imágenes IRM estándar, que proporcionan imágenes anatómicas de alta calidad del cerebro, las IRM funcionales se benefician del hecho de que cuando una región del cerebro es altamente activa, se produce en esa región un aporte adicional de sangre oxigenada. Midiendo las cantidades relativas de sangre oxigenada y deoxigenada es posible determinar qué regiones del córtex son más activas, para una determinada tarea y una escala temporal de unos cuantos segundos. Esta señal es entonces analizada para generar imágenes del cerebro que reflejen qué regiones de este están implicadas en las tareas conductuales que se están realizando (ver Logothetis, 2008).

[3] La traducción de los rótulos de la figura 4A es la siguiente: reflecting mirror = espejo reflectante; control keys = teclas de control; AbES projected on a screen = AbES proyectado en una pantalla; subject wearing headphones = sujeto con auriculares. (N. de la T.)

 

 
Volver al Sumario / Contents