RayBan Meta Smart GlassesRayBan Meta Smart Glasses

Se llaman gafas inteligentes y te permiten aprovechar la IA aplicándola a todo lo que ves. ¿Quieres traducir lo que escribes en otro idioma? ¿Quieres saber cuántas calorías tiene la comida que vas a comer? ¿Grabar vídeos o escuchar música? La esclavitud será tener que llevar puestas todas las gafas.

Las gafas inteligentes están experimentando una fase de rápida evolución, transformándose de simples artilugios tecnológicos a verdaderos asistentes personales con inteligencia artificial. En 2025, los modelos más avanzados ofrecerán funcionalidades extraordinarias y la competencia entre estadounidenses y chinos ya está en su nivel más alto.

Las funcionalidades avanzadas de las gafas inteligentes con IA

Uno de los usos más prácticos de las gafas inteligentes con IA es la capacidad de traducir instantáneamente texto y voz. Los modelos más avanzados, como las Ray-Ban Meta Smart Glasses y las Imiki MyVu, pueden traducir signos, menús o conversaciones en tiempo real proyectando la traducción en el idioma deseado directamente sobre las lentes. Esta función es especialmente útil para viajeros y profesionales que trabajan en contextos multilingües.

Reconocimiento de objetos y alimentos

Mediante la integración con potentes modelos de IA multimodal, algunas gafas pueden analizar lo que el usuario está mirando y proporcionar información detallada. Por ejemplo, las Ray-Ban Meta con Vision AI pueden reconocer alimentos y proporcionar datos nutricionales, como el recuento de calorías, con sólo mirar un plato.

Navegación GPS avanzada

La navegación asistida es otra de las características de modelos como las Imiki MyVu, que integran un sistema head-up display que proyecta las indicaciones directamente en el campo de visión del usuario, permitiéndole moverse por la ciudad sin tener que consultar constantemente su smartphone. La integración con Google Maps hace que esta función sea especialmente precisa y útil para peatones, ciclistas y motoristas.

Asistencia para invidentes

Algunas implementaciones de IA en gafas inteligentes están empezando a ofrecer funciones de audiodescripción de su entorno, ayudando a la movilidad de las personas con discapacidad visual .

Principales modelos en el mercado en 2025

Gafas inteligentes Ray-Ban Meta

Fruto de la colaboración entre Meta y EssilorLuxottica, estas gafas son actualmente la oferta más completa. La versión 2025 introduce una pantalla monocular en la esquina inferior derecha de la lente para mostrar notificaciones, mapas y otra información. Equipadas con una cámara de 12 MP, altavoces integrados y control por voz, están especialmente indicadas para creadores y usuarios sociales. Cuestan entre 1.000 y 1.400 dólares

Tienen un diseño elegante y personalizable. Funciones avanzadas de IA (traducciones, reconocimiento de imágenes). Integración con el ecosistema Meta.

La calidad de las fotos es inferior a la de los smartphones premium. El audio tiene un rendimiento de graves limitado.

Gafas inteligentes Imiki MyVu

Estas gafas se distinguen por su pantalla AR microLED que proyecta información directamente en el campo de visión. Especializadas en traducción en tiempo real y navegación GPS, ofrecen una experiencia más centrada en la realidad aumentada que en la captura de contenidos. Una app integrada utiliza servicios en la nube. Así que puede funcionar con cualquier smartphone. El sistema de traducción es preciso y rápido.  Teleprompter integrado para uso profesional. Sin embargo, los reflejos en la lente en entornos luminosos crean problemas. El volumen de audio no es alto, pero no se pueden esperar altavoces. Cuestan 599,99 euros.

Pesan sólo 43 gramos y tienen el sistema de proyección con dos micro LED en los brazos. Disparan luz contra una guía de ondas de difracción óptica que dibuja una pantalla verde en el aire de unos 100′, con un brillo máximo de 2000 nits.  La resolución de la pantalla es de 1280×480 píxeles y utiliza Bluetooth.

Gafas Samsung Galaxy XR

Esperadas para finales de 2025, estas gafas representan la respuesta de Samsung al dominio de Meta. Desarrolladas en colaboración con Google, prometen una integración perfecta con el ecosistema Android y funciones avanzadas de IA con el asistente Gemini.

Utilizarán una plataforma Android XR. Controles avanzados por gestos. Probable integración con servicios de Google como Maps y Translate.

Gafas de realidad aumentada Xreal One

Centradas en la experiencia visual, estas gafas ofrecen una pantalla virtual de 147 pulgadas con seguimiento de movimiento, ideal para quienes buscan una experiencia cinematográfica portátil . Aunque no están especializadas en funciones de IA como la traducción o el reconocimiento de imágenes, su tecnología podría adaptarse a estas características en el futuro.

Los retos de la comercialización: potencial, diseño, autonomía, precios

La autonomía sigue siendo un reto para todos los modelos. Las Imiki MyVu, por ejemplo, duran entre 4 y 5 horas con un uso intensivo de las funciones de IA, mientras que las Ray-Ban Meta ofrecen un rendimiento similar. Esto significa que, para un uso diario prolongado, es necesario llevar un cable de carga o planificar descansos para recargar las gafas.

Con precios que oscilan entre los 600 euros de las Imiki MyVu y los 1.400 dólares de las Ray-Ban Meta de gama alta, estos dispositivos siguen siendo una inversión importante. Sin embargo, se espera que los costes disminuyan a medida que la tecnología se generalice y entren en juego las economías de escala.

Con la inminente entrada de nuevos actores como Samsung y la mejora continua de las capacidades de IA, la próxima década podría ver cómo las gafas inteligentes se convierten en un accesorio tan común como los smartphones actuales

Perspectivas de futuro

Meta ya está trabajando en la próxima generación de gafas, cuyo nombre en clave es «Orion», que combinarán un diseño compacto con pantallas avanzadas capaces de superponer contenidos 3D sobre el mundo real. Sin embargo, no estarán disponibles para el mercado de masas antes de 2026-2027.

¿Serán fuente de nuevos peligros?

Básicamente, tienes un navegador GPS delante de los ojos sin distraerte de la conducción. ¿Será cierto? Lo dudo un poco. No creo que se pueda correr a 100 km/h mirando lo escrito en la lente. Por supuesto que es mejor que mirar la pantalla del móvil o la pantalla del salpicadero, pero no me parece una garantía de seguridad. Sin embargo, también han pensado en este inconveniente con la asistencia por voz. Se activa con una pulsación larga en la barra derecha y una orden de voz. Así, la voz te guía mientras no apartas la vista de la carretera.

¿Qué ocurre con los miopes? Con lentes de contacto superas el problema. De lo contrario, ves borroso y tienes que graduar las lentes como en las gafas graduadas. Lo que aumenta el coste, claro. Colocando clips en la parte delantera, algunos modelos se convierten en gafas de sol.

Evolución de las capacidades de la IA

Las capacidades de la inteligencia artificial van a mejorar exponencialmente. Se espera que en los futuros modelos

– Las traducciones serán más fluidas y naturales

– El reconocimiento de objetos y escenas será más preciso y detallado.

– La interacción por voz será más intuitiva y contextual.

Carlo Raspollini

Por Carlo Raspollini

Periodista, presentador, autor, director y productor con una destacada trayectoria de más de 40 años en la Rai y otras cadenas líderes de radio y televisión en Italia. Especialista en consultoría gastronómica y sumiller AIS. Ideator de Eventos internacionales y format para radio-tv-web, combinando su pasión por la comunicación, marketing, advertising, con la cultura enológica y el medio ambiente.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *