The Android Show | XR Edition
La visión de Google para un ecosistema XR unificado
10 de diciembre de 2025
The Android Show XR Edition by Google
Google ha presentado esta semana en “The Android Show | XR Edition” una de las propuestas más ambiciosas para el futuro de la computación espacial. La compañía, en colaboración con Samsung y Qualcomm, ha dibujado un camino claro hacia un ecosistema XR cohesionado, escalable y centrado en la integración entre hardware, software e inteligencia artificial.
Desde INVELON, donde trabajamos cada día en soluciones inmersivas para empresas y administraciones, este movimiento confirma que la realidad extendida está entrando en una fase de madurez en la que la adopción masiva es por fin viable.
Android XR: la nueva plataforma de realidad extendida
La principal noticia del evento fueron las nuevas funcionalidades de Android XR y su orientación multiplataforma, al consolidarse como el sistema operativo unificado de Google para dispositivos de realidad extendida. El objetivo es que headsets, gafas inteligentes y formatos intermedios funcionen bajo un mismo marco, simplificando el desarrollo, la compatibilidad y la experiencia de usuario.
Según la visión de Google, el ecosistema XR se dividirá en diversas categorías:
- Dispositivos de tipo headset para experiencias inmersivas: entretenimiento y productividad con una calidad de imagen avanzada y gran capacidad computacional.
- Gafas AR conectadas que permiten llevar parte de la experiencia inmersiva a todo tipo de entornos, con mayor ligereza, colaborando con compañías como XREAL.
- Gafas AR sin cable, incorporando displays y con la mayor ergonomía posible, como ya ha hecho Meta con su último lanzamiento junto a Ray-Ban.
- Gafas AI pensadas para uso diario, ligeras y diseñadas por marcas de referencia en el mundo de la óptica.
Para empresas y desarrolladores, esto supone un avance decisivo hacia un estándar capaz de consolidar la computación espacial en múltiples sectores.
Galaxy XR: el primer dispositivo nativo de Android XR
Samsung anunció novedades parasu primer headset, Galaxy XR, un visor pensado desde cero para integrarse con Android XR y con Gemini como asistente principal. El dispositivo cuenta con un amplio ecosistema de aplicaciones de Google Play y ofrece varias funciones orientadas a la productividad y el entretenimiento.
Entre las novedades anunciadas destacan:
PC Connect
Permite trasladar ventanas del ordenador directamente al entorno XR, abriendo oportunidades en tareas donde se requiere una gran superficie de trabajo virtual.
Likeness
Un sistema que genera una representación hiperrealista del usuario para videoconferencias en XR. Aporta naturalidad y expresividad, dando un paso más allá de los avatares estilizados.
Travel Mode
Genera un espacio XR estable durante desplazamientos, especialmente útil en vuelos, permitiendo un uso cómodo incluso con vibraciones o poca libertad de movimiento.
Auto-Spatialization (disponible próximamente)
Transformación en tiempo real de cualquier contenido 2D en experiencias 3D. Esta función puede acelerar enormemente la adopción de contenido espacial al no requerir desarrollo específico por parte de cada aplicación.
Project Aura: XR ligera para trabajar en cualquier parte
Una de las demostraciones más interesantes del evento fue Project Aura, el dispositivo XR ligero de XREAL que combina transparencia óptica, control por gestos y un formato portátil. Se conecta mediante cable a un pequeño módulo externo que contiene la batería y la computación, permitiendo mantener la ligereza de las gafas sin sacrificar rendimiento. Con Project Aura puedes:
- Visualizar múltiples ventanas flotantes (navegador, herramientas de edición, mensajería) con 70° FOV.
- Integrar Gemini como asistente contextual dentro de cualquier aplicación visible.
- Ampliar simultáneamente la pantalla de un portátil en forma de ventanas espaciales.
Esta propuesta abre la puerta a un uso cotidiano de la XR fuera del entorno doméstico o de oficina, algo clave para la adopción masiva.
AI Glasses: el salto hacia unas gafas realmente inteligentes
Google mostró también el avance de sus AI Glasses, desarrolladas junto a Warby Parker y Gentle Monster. Se presentarán en dos variantes:
- AI Glasses con cámara, micrófonos y altavoces, pensadas como asistente manos libres.
- Display AI Glasses, con un microdisplay integrado que permite mostrar información privada en tiempo real.
Algunas funciones demostradas en el evento incluyeron:
- Traducción simultánea en conversaciones.
- Identificación de objetos y búsqueda visual contextual.
- Creación de imágenes y edición rápida mediante el modelo Nano Banana.
- Captura de fotos y ejecución de acciones mediante comandos naturales.
Estas capacidades consolidan un uso práctico diario y alejado de la percepción de “gadget”, acercando las gafas inteligentes al mercado generalista.
Un SDK más maduro para desarrolladores XR
Google también anunció la Developer Preview 3 del Android XR SDK, que incluye mejoras significativas para la creación de experiencias XR y para la compatibilidad con gafas AI y dispositivos híbridos. Entre las novedades técnicas destacan:
Ampliación de ARCore
Incluye capacidades geoespaciales, orientación dinámica y motion tracking para crear experiencias que reaccionen al movimiento del usuario y al entorno real.
Jetpack Glimmer
Una nueva librería específica de UI para gafas con pantallas transparentes, diseñada para ofrecer una visualización clara y no obstructiva.
Jetpack Projected
Permite proyectar una app móvil directamente en unas AI Glasses manteniendo control sobre cámara, audio y funciones nativas.
Emulador XR para Android Studio
Incluye campos de visión configurables y escenarios XR para probar apps sin disponer de hardware físico.
Además, Uber mostró un caso de uso práctico para mejorar la experiencia de recogida de pasajeros: direcciones contextuales en aeropuertos, identificación rápida del vehículo y comunicación directa desde las gafas.
¿Qué implica este movimiento para la industria XR?
En INVELON destacamos tres impactos inmediatos:
- Estandarización del ecosistema XR. Android XR puede convertirse en la referencia para desarrolladores y empresas, como lo fue Android en el móvil.
- Integración profunda de la IA en el flujo de trabajo. Gemini actúa como interfaz universal que conecta visión por computadora, conversación y acción.
- Nuevas oportunidades de negocio. Desde productividad espacial hasta navegación asistida, soporte remoto, turismo aumentado o formación inmersiva.
El mensaje central del evento es claro: la XR ya no es un conjunto de tecnologías experimentales, sino una nueva capa de interacción con el mundo digital.
Google, Samsung y Qualcomm están así alineados en una visión común: que la XR pueda ser utilizada en el día a día, sin fricciones, con herramientas de desarrollo maduras y con la IA como núcleo operativo.
