Noticias

Google detalla las capacidades operativas de Android XR en visores y futuras gafas inteligentes

Google expande Android XR con mejoras para Galaxy XR, nuevas gafas IA y Project Aura para 2026.

Compartir

Durante el evento «The Android Show: XR Edition», Google detalló cómo ha ido creciendo y ha mejorado su ecosistema Android XR de realidad extendida (XR). Según planteó Google, en dos puntos:

  • Optimización del software en dispositivos actuales
  • Definición de nuevos formatos de hardware asistidos por IA para 2026

Las mejoras del Galaxy XR: El PC en el visor y avatares realistas

Para los usuarios del visor Galaxy XR, la función «PC Connect» habilita una transmisión de baja latencia desde ordenadores Windows al entorno virtual.

PC Connect permite al operador interactuar con aplicaciones de escritorio y videojuegos de alta demanda gráfica directamente en el visor, superando las restricciones de procesamiento del hardware independiente.

La movilidad también recibe una mejora técnica mediante el «modo de viaje», diseñado para recalibrar los sensores de seguimiento en entornos de movimiento constante. El algoritmo compensa la inercia del vehículo, como en un avión, asegurando que las ventanas flotantes permanezcan estáticas frente al usuario sin sufrir desplazamientos erráticos.

En cuanto a la comunicación remota, se introduce la tecnología «Likeness» para la generación de avatares de alta fidelidad mediante escaneo facial. El sistema renderiza en tiempo real las expresiones y gestos del usuario durante las videollamadas, sustituyendo los modelos genéricos por una representación digital fotorrealista.

Gafas con Gemini: Traducción simultánea y memoria visual

Google confirmó el desarrollo de gafas sin pantalla que priorizan la interacción auditiva directa con el modelo Gemini. Estos dispositivos utilizan matrices de micrófonos y cámaras para analizar el entorno físico, permitiendo al usuario realizar consultas verbales complejas sobre los objetos o situaciones que tiene enfrente.

Esta configuración de hardware incluye:

  • Memoria contextual: Capacidad para gestionar de forma automatizada la información personal relevante.
  • Registro y recuperación de datos: Habilidad del sistema para almacenar y acceder a información visual capturada en el pasado.
  • Asistencia pasiva: Procesamiento y organización autónoma de la información registrada durante la actividad del usuario, sin requerir comandos constantes.

La segunda variante de lentes permite visualización en lente (display) para superponer datos críticos en la línea de visión. Esta configuración habilita funciones prácticas como la traducción simultánea, desplegando subtítulos en tiempo real directamente sobre el campo visual del interlocutor.

Implementación de realidad extendida por cable

La colaboración con XREAL bajo el nombre «Project Aura» introduce un dispositivo de realidad extendida (XR):

  • Conexión física: Mantiene un enlace por cable para garantizar el rendimiento, a diferencia de los modelos inalámbricos.
  • Visualización óptica: Cuenta con óptica transparente y un campo de visión de 70 grados.
  • Multitarea espacial: Permite anclar múltiples paneles de trabajo en el entorno físico con alta estabilidad.

Shahram Izadi, VP de XR en Google, afirmó que esta segmentación de productos responde a la necesidad de ofrecer distintas ergonomías según el caso de uso técnico:

«Queremos darte la libertad de elegir el equilibrio adecuado de peso, estilo e inmersión para tus necesidades».

Shahram Izadi, VP de XR en Google
Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....