Google impresiona con sus gafas Android XR en otra demostración del potencial de la IA en este nuevo dispositivo
Si la presentación de hace unos meses ya dejó claro que Google está mucho más avanzado en este tipo de gadgets que la competencia, como por ejemplo Meta, ahora, con motivo de la conferencia I/O 2025 Keynote que se celebra al mismo tiempo que el COMPUTEX 2025, la gran G tiene buenas nuevas. Y es que mostró novedades interesantes para sus gafas Android XR, donde se ve cómo la integración con la IA es mucho mejor y el despliegue del potencial solo parece limitado a la capacidad el hardware, al menos según lo mostrado en dicha conferencia I/O 2025 Keynote.
Las gafas de realidad mixta van a ser un complemento más que habitual, como ya son los relojes inteligentes o los anillos de monitoreo, y quizás, hasta más que estos. Los motivos son obvios: son una pasada, aportan mayor información, permiten interactuar con la IA y nos dejan las manos totalmente libres para hacer cosas mientras las gafas nos dan información de varios tipos.
Android ha evolucionado de un SO a un ecosistema completo de dispositivos
Los mismos protagonistas, distinto escenario, nuevas capacidades y un nivel de innovación que en unos años nos va a dejar alucinados. Google ha hablado largo y tendido sobre su nuevo gadget y cómo podremos interactuar con él, mostrándose muy superior a lo que tiene Meta en el mercado con las gafas Ray-Ban.
Como en el caso de su competidor, las gafas están pensadas para usar como parte fundamental de la ecuación a tu móvil, a ser posible, un Pixel, ya que la integración y capacidades parecen ser superiores al resto de modelos y marcas, algo normal en la gran G, y que copió de alguna manera de Apple.
La compañía mostró en su Keynote de la mano de Shahram Izadi lo último que han incorporado a estas Android XR, donde este comentó algo que ya se lleva viendo tiempo y ahora es una realidad más compleja: Android no es solo un SO, es un ecosistema completo de dispositivos.
Google impresiona con sus gafas Android XR mostrando nuevas capacidades en la I/O 2025 Keynote
A lo que ya se vio en su primera demostración técnica ahora hay que sumarle más habilidades. Ahora, las gafas Android XR podrán usar todas las aplicaciones de tu móvil, sin tener que tocarlo, de manera natural, como cabría esperar de un dispositivo disruptivo. Gemini AI entiende todos los parámetros sobre aplicaciones.
Por ejemplo, podemos pedir una videollamada desde las gafas, enviar mensajes de texto, por WhatsApp, retransmitir en directo, o puedes preguntarle en cualquier momento sobre algo que señales y que estés mirando. De hecho, la integrante del equipo de Google, Nishtha, estuvo mirando una imagen en el backstage del evento, desde donde estuvo retransmitiendo para los asistentes desde sus gafas, donde aparecía un grupo de música.
Le preguntó a la IA si podía decir qué grupo salía en la imagen, con la particularidad, de que no era una sola foto, sino un mural con muchas. Gemini AI supo identificar mediante la posición de los ojos y la señalización de su dedo la banda, le dio información a Nishtha y a continuación, esta le pidió a Gemini que le mostrase una imagen de la banda tocando en el escenario.
Tras esto, le puso música del grupo a través de sus propios altavoces. Las cosas no quedan ahí, porque ya sabemos que Android XR puede mostrar Google Maps en sus cristales, y posiblemente, hasta vídeos de YouTube o indicaciones en 3D para seguir rutas.
Siendo el primer dispositivo diseñado por Google para Gemini AI, podemos suponer que cuando se lance será todavía mucho mejor, y ya es totalmente alucinante en estos momentos.