Un selecto grupo de asistentes al Mobile World Congress 2026 tuvo la oportunidad de probar un prototipo avanzado de gafas inteligentes de Google. Este dispositivo cuenta con una pantalla que muestra información en tiempo real y permite una interacción fluida con la inteligencia artificial Gemini. Entre las funcionalidades destacadas se encuentran la reproducción musical a través de YouTube Music, la navegación con Google Maps y la identificación de objetos del entorno, todo gestionado mediante comandos de voz y respuestas visuales directamente en las lentes.
El modelo presentado se basa en la tecnología Android XR, una plataforma que fue introducida en octubre del año pasado junto al visor Galaxy XR de Samsung. Esto subraya el compromiso de Google en crear experiencias de realidad extendida que superen las limitaciones de los visores convencionales. Android XR permite la ejecución de aplicaciones impulsadas por inteligencia artificial en dispositivos livianos con formato de gafas, un proyecto que fue anunciado por Google en diciembre.
Durante la muestra, la compañía limitó la toma de fotografías y videos del prototipo, pero los participantes pudieron interactuar con las gafas, que están equipadas con altavoces, micrófonos y cámaras. La interacción comienza al tocar la patilla derecha, momento en el que el usuario puede comunicarse directamente con Gemini. A través de esta conversación, se pueden solicitar detalles sobre objetos visibles, pedir que se reproduzca música relacionada con un disco, o incluso obtener información histórica sobre una pintura o un edificio. La experiencia de navegación en Google Maps fue una de las más impresionantes, mostrando instrucciones detalladas y ofreciendo indicaciones por audio, mientras que la función musical permitió a los usuarios disfrutar de la pista más popular de discos icónicos como “Mayhem” de Lady Gaga y “The Dark Side of the Moon” de Pink Floyd.



