1. EVALUACIÓN DE LAS SMART GLASSES RAY-BAN META
1.1 Introducción
En este informe se evalúa la funcionalidad de las Smart Glasses Ray-Ban Meta y su posible utilidad para personas con ceguera o deficiencia visual grave.
Las gafas combinan los diseños elegantes de Ray-Ban y las tecnologías más avanzadas de Meta. Mediante el uso de la IA y su asistente de voz es posible hacer fotos, grabar vídeos, escuchar música, recibir y enviar mensajes, realizar llamadas o videollamadas, entre otras cosas, sólo con la voz sin necesidad de sacar el móvil del bolsillo.
1.2 Características del producto
El modelo evaluado es el Ray-Ban Wayfarer RW 4006. Este es uno de los diseños más emblemáticos de la marca, que ahora incluyen cámara, micrófonos y dos altavoces.
Estas gafas son muy ligeras y ofrecen la posibilidad de utilizarlas con lentes graduadas o como gafas de sol con diferentes modelos de lentes.
Para acceder a las distintas opciones de configuración de las gafas hay que utilizar la aplicación Meta AI, compatible con iOS y Android y configurar una cuenta de usuario en Meta.
Así mismo, es necesario vincular las gafas a un dispositivo móvil con conexión de datos mediante bluetooth para poder emplear la IA, transferir fotos, vídeos, hacer y recibir llamadas o escuchar música.
Las Ray-Ban incorporan una batería cuya duración, según el fabricante, es de 4 horas.
Para cargarlas es tan sencillo como introducirlas en el estuche que se incluye, el cual cuenta con una batería que permite cargar las gafas hasta en ocho ocasiones.
La carga del estuche se realiza mediante un cable USB C no incluido, y el tiempo aproximado de carga es de unas dos horas.
Descripción
Se trata de unas gafas totalmente convencionales que incluyen un altavoz en cada una de las patillas, a la altura de las orejas.
Además, en la patilla derecha cuenta con un panel táctil que permite realizar diferentes gestos que ejecutan acciones como subir o bajar la música, o recibir o finalizar una llamada telefónica, por ejemplo.
En la parte superior de esta misma patilla existe un botón que puede ser pulsado con el cuál pueden tomarse fotos o grabar vídeos.
En la esquina superior derecha del marco hay situado un led que se encenderá para indicar que se está grabando o que se ha hecho una foto.
En la esquina superior izquierda del marco se aloja una cámara de 12 mp.
En e interior de la patilla izquierda se aprecia un interruptor redondo (el cual al tacto puede confundirse con un tornillo) que permite encender o apagar la gafa.
Además, disponen de cinco micrófonos. Dos en la patilla izquierda, dos en la patilla derecha y uno en el puente, lo que hace que los vídeos grabados con ellas tengan un sonido de alta calidad.
Dimensiones:
-
Ancho de la montura 122 mm
-
Ancho del puente 22 mm
-
Altura de la lente 35 mm
-
Ancho de la lente 50 mm
-
Longitud de varilla 150 mm
Contenido de la caja
La caja contiene los siguientes elementos:
-
Gafas Ray-Ban Meta AI
-
Estuche de carga
-
Gamuza de limpieza
-
Manual de instrucciones


1.3 Funcionalidad
Las Ray-Ban Meta utilizan la inteligencia artificial de Meta y se pueden activar con la voz diciendo “Hey Meta” u “OK Meta”. Hay que tener en cuenta que en Europa existen restricciones que impiden el uso completo de la IA en este dispositivo, como por ejemplo la activación de vídeo en tiempo real.
Activando la IA es posible solicitar que realice la siguientes funciones por voz.
-
Hacer una foto
-
Grabar un vídeo de hasta 3 minutos.
-
Hacer llamadas telefónicas o por WhatsApp.
-
Enviar SMS o mensajes de WhatsApp.
-
Realizar videollamadas por WhatsApp o el resto de las aplicaciones de Meta, permitiendo al interlocutor visualizar el contenido que se ve a través de las gafas.
-
Escuchar contenido de audio, como música o Podcast.
-
Subir o bajar el volumen del audio.
-
Hacer transmisiones en directo en las aplicaciones de Meta, Facebook o Instagram.
-
Realizar preguntas sencillas a la IA de Meta, como la hora actual, el tiempo en una ubicación o facilitar respuestas a preguntas sencillas.
-
Conocer el nivel de batería de las gafas.
-
Solicitar a las gafas que describan lo que hay en el entorno del usuario con la orden “OK meta mira y describe”.
-
Traducción en tiempo real de los idiomas inglés, español, italiano y francés.
-
Conexión con la aplicación Be My Eyes permitiendo ver a un voluntario la imagen que se ve tanto a través de las gafas, como de la cámara del móvil.
1.4 Pruebas realizadas
Las gafas se han probado con la versión 15.1 en un iPhone 13 con iOS 18.5 y un Pixel 9 con Android 15. La aplicación Meta AI versión 223.0.0 en iOS (4 de junio de 2025) y en Android versión 221.0.0.31.168 (22 de mayo 2025).
Durante las pruebas se ha observado que el dispositivo realiza de forma ágil y sencilla las operaciones que refiere el manual.
La aplicación Meta AI no cuenta con importantes problemas de accesibilidad, con lo que aquellas personas que utilicen lector de pantalla pueden configurar y acceder a la práctica totalidad de funciones.
Las meta AI cuentan con dos formas de uso.
Por un lado, es posible hacer fotos y vídeos pulsando el interruptor situado encima de la patilla derecha, subir y bajar volumen deslizando el dedo en el panel táctil o activar el asistente de voz dejando el dedo pulsado en dicho panel.
Por otro, es posible realizar estas y otras operaciones únicamente con la voz facilitando que se tengan las manos libres.
Si la IA de las meta no está activada en la aplicación, no podrán realizarse acciones con la voz.
El resultado de las pruebas ha sido muy satisfactorio y se han valorado los siguientes aspectos:
-
Las gafas se han evaluado con las diferentes voces en español e inglés, existiendo la posibilidad de aumentar o reducir la velocidad de dichas voces.
-
Es posible utilizar las gafas como auriculares Bluetooth, permitiendo tener los oídos al descubierto con una muy buena calidad de sonido. Se detecta que al aumentar el volumen, el sonido de los graves disminuye y, además, se ha observado que en lugares muy ruidosos el volumen puede ser insuficiente.
-
Activación de la función volumen adaptativo, que aumenta o disminuye el volumen de las gafas en función del ruido del entorno.
-
Ha sido posible utilizar VoiceOver y TalkBack con las gafas, no experimentando una latencia significativa en el audio en comparación con otros auriculares bluetooth, con lo que aquellas personas que utilicen estos lectores de pantalla podrán manejar el teléfono recibiendo el sonido en ellas.
-
No puede utilizarse la tecnología de las gafas para interactuar con Siri o el asistente de Google, por lo que no es posible pedir que se abran aplicaciones que no sean de Meta desde el dispositivo.
-
Se ha conseguido vincular las gafas con WhatsApp para poder hacer llamadas, videollamadas, envío de mensajes, fotos y vídeos.
-
Se ha realizado la vinculación con Facebook y desde las gafas, sólo con la voz, se han subido vídeos y fotos a las historias. También es posible subir imágenes y vídeos a Instagram, cuestión que no se ha probado.
-
Se han recibido y realizado llamadas desde las gafas resultando de muy buena calidad.
-
Se han realizado vídeos y fotos obteniendo muy buenos resultados.
-
Se ha reproducido música y podcast con muy buena calidad de audio.
-
Durante las pruebas se ha detectado que con un uso continuado de las gafas la batería disminuye considerablemente. No obstante, en tan sólo 30 minutos colocadas en el estuche, las gafas se habrán cargado al 50 por ciento. El hecho de que el estuche cuente con la posibilidad de cargar las gafas ocho veces hace muy cómodo y fiable su uso.
-
Con la activación de la IA de Meta en español es posible pedirles a las gafas que describan imágenes. Se ha solicitado la descripción de varios entornos diciendo “OK Meta, mira y describe”. Para facilitar la descripción las gafas inteligentes realizan una foto del entorno y, en general, las descripciones se asemejan a la realidad, aunque no siempre son precisas.
-
Ha sido posible formular preguntas a la IA a cerca de la imagen descrita.
-
Al tratar de leer textos se observa que la mayoría de las ocasiones no realiza la lectura literal del mismo, si no que la IA hace un breve resumen del contenido del texto omitiendo información.
-
En el momento de la realización de este informe se ha conseguido conectar las gafas Ray-Ban Meta a la aplicación Be My Eyes en iOS observando que, si el idioma está configurado en castellano, las gafas avisan de que el idioma tiene que ser el inglés; sin embargo, si se cambia el idioma al inglés y se conectan las gafas con Be My Eyes y se vuelve de nuevo al español, es posible seguir utilizando la aplicación. Para realizar una llamada a un voluntario será suficiente con decir “OK Meta Be My Eyes”. En ese momento, se establecerá la comunicación siendo posible mostrarle la imagen que se ve a través de las gafas o conmutar con la cámara del móvil pulsando dos veces el botón de captura de las Ray-Ban Meta.
-
Sin embargo, en Android no ha sido posible utilizar Be My Eyes con el idioma de las gafas en castellano. Se ha probado la traducción en tiempo real del inglés al español y se observa que, aunque comete imprecisiones, podría llegar a resultar de utilidad esta funcionalidad. La calidad de la traducción dependerá de factores como el ruido del ambiente o la pronunciación del hablante.
1.5 Observaciones
- Se observa que para emparejar las gafas con la aplicación Meta AI se ofrece información por color y además brinda sonidos que pueden ayudar a las personas con ceguera a vincular el dispositivo.
- Al poder usar la IA para la descripción de imágenes, la utilidad de las gafas para personas con ceguera aumenta. Además, la posibilidad de poder hacer videollamadas y que el interlocutor visualice lo que la persona ciega ve a través de sus gafas las convierten en un dispositivo muy interesante para este colectivo.
- No obstante, hay que matizar que durante las pruebas la IA de Meta ha resultado ser algo inestable, funcionando en algunas ocasiones y en otras no.
- El dispositivo se encuentra en constante evolución puesto que tanto la aplicación Meta AI, como las propias gafas, se actualizan frecuentemente; por tanto, sus posibilidades aumentan paulatinamente.
- Además, se debe tener en cuenta que las diferentes actualizaciones no llegan a la vez a todos los dispositivos, si no que se van desplegando progresivamente.
1.6 Relación con otros dispositivos de su genero
A fecha de la realización de este informe, no se han evaluado dispositivos similares por parte del CTI con los cuales se pueda establecer una comparativa.
1.7 Conclusiones finales
Las Ray-Ban Meta Smart Glasses no son un dispositivo específicamente diseñado para personas con ceguera, aunque presentan algunas funcionalidades que podrían resultar interesantes para este colectivo.
Las gafas ofrecen la posibilidad de realizar llamadas, videollamadas, enviar mensajes y reproducir audio.
La reciente incorporación de la descripción de imágenes con la IA de Meta en español aporta un plus de uso a este dispositivo.
Además, la posibilidad de poder realizar videollamadas y permitir que el interlocutor vea lo que ve la cámara de las gafas podría ser una característica valiosa para algunas personas con ceguera, así como la oportunidad de tener los oídos destapados o realizar diferentes funciones sólo con la voz, lo que permite tener las manos libres.
2. ACCESIBILIDAD CON LA APLICACIÓN META AI PARA iOS Y ANDROID
2.1 Introducción
A continuación se detallan los problemas de accesibilidad detectados con la aplicación Meta View, para iOS y Android.
En la pantalla “Tu cuenta” existe contenido web, por lo que se encuentran enlaces y otros elementos propios de este tipo de contenido.
2.2 Pruebas realizadas en Android
Las pruebas se han llevado a cabo en un Pixel 9 con Android 15.1 La versión de la Suite de Accesibilidad es la 16.0.0.758099302 y la versión de la aplicación 221.0.0.31.168 con fecha 22 de mayo 2025.
2.2.1 Lector de pantalla
Se detecta que en muchas de las pantallas TalkBack anuncia el estado del control antes de verbalizar la etiqueta. Esto puede apreciarse, por ejemplo, en la pantalla “Meta AI” situada en la pestaña “Dispositivos”, en primer lugar el lector verbaliza activado y después el contenido de la etiqueta del botón.
2.2.2 Línea braille
No se han detectado problemas adicionales a los ya mencionados anteriormente con línea braille.
2.2.3 Deficiencia visual grave
En el caso de usuarios con deficiencia visual grave, la aplicación soporta la configuración del dispositivo referente al “Modo oscuro” y “Modo claro”.
Se mantiene el tamaño de fuente del sistema, aunque esta ampliación genera pérdida de información. Los textos en negrita y en alto contraste también son respetados por la app.
2.3 Pruebas realizadas en iOS
Las pruebas se han llevado a cabo en un iPhone 13 y la versión 18.5 de iOS. La versión de la aplicación 223.0.0 con fecha del 4 de junio de 2025.
2.3.1 Lector de pantalla
- El estado de los controles se anuncia en inglés, en lugar de indicar activado o desactivado son verbalizados como “On” u “Off”.
- Lo mismo ocurre con los controles seleccionado o no seleccionado, ya que estos son verbalizados por el lector como “Unselected” o “Selected”.
- En la pantalla “Saca más partido a tus gafas” los controles no están correctamente asociados a sus etiquetas, en un primer flick el foco se sitúa en la etiqueta y en el segundo en el botón. Además, en esta misma pantalla existe un botón etiquetado en inglés llamado “Optional-oobe-do-this-later_button” para salir de ella.
- En la pantalla “Actualizaciones con datos móviles” el mensaje de ayuda “si no estás usando una red wifi se utilizarán datos móviles” está identificado como botón, cuando realmente no lo es.
- En algunas pantallas en lugar de existir botón “Atrás” se encuentra un botón llamado “Tirador de la hoja”
2.3.2 Línea braille
No se han detectado problemas adicionales a los ya mencionados anteriormente con línea braille.
2.3.3 Deficiencia visual grave
En el caso de usuarios con deficiencia visual grave, la aplicación soporta la configuración del dispositivo referente al “Modo oscuro” y “Modo claro”.
Se mantiene el tamaño de fuente del sistema, aunque esta ampliación genera pérdida de información. Los textos en negrita si son respetados por la app, sin embargo, en alto contraste no.
2.4 Conclusiones
Se han detectado algunos problemas de accesibilidad, pero estos no suponen graves inconvenientes para el manejo de la aplicación por parte de usuarios de lector de pantalla y línea braille.