La Universidad de Stanford pretende dejar en pañales las Apple Vision Pro con sus gafas AR holográficas asistidas con IA
Sin duda las Apple Vision Pro han cambiado la forma de entender la Realidad Aumentada por parte de los usuarios en su día a día, haciéndolo más interesante o ameno. Pero tras el boom inicial parece que el entusiasmo con ellas ha bajado. Muchos se quejan de un gran peso, un gran tamaño y poca autonomía, pues bien, la Universidad de Stanford puede terminar con esos problemas y dar un paso más allá que Apple, porque está trabajando en unas gafas AR holográficas con IA que podrían cambiarlo todo.
Ni es el primer dispositivo así, ni será el último, pero sí que es cierto lo novedoso de lo que representa y puede hacer. Lo que vamos a ver es lógicamente algo en desarrollo, pero es tan prometedor y revolucionario que dejaría a las Apple Vision Pro directamente en pañales, y no por pocos aspectos a tener en cuenta.
La Universidad de Stanford diseña un primer prototipo de gafas AR holográficas con IA
Empezaremos fuerte la descripción de estas gafas con las declaraciones del investigador postdoctoral Gun-Yeal Lee, ya que este dijo en Nature que no existe otro sistema de AR que se compare a este prototipo ya real en capacidad y compacidad, ni siquiera las Apple Vision Pro.
Como pincelada deja el pabellón alto, pero, ¿realmente es tan novedoso lo presentado? La verdad es que sí, es algo muy innovador. Ha sido el Laboratorio de Imágenes Computacionales de la Universidad de Stanford la que lo ha hecho posible, y aunque no tiene nombre comercial ni nada parecido estamos ante las primeras gafas holográficas 3D reales. Sus creadores las definen así en referencia a la imagen de arriba:
a. Las gafas AR convencionales utilizan SLM, como diodos emisores de luz orgánicos (LED) o microdiodos emisores de luz, que requieren un motor de luz basado en un proyector que normalmente es al menos tan grueso como la distancia focal f de la lente de proyección. b, el diseño de nuestras gafas AR holográficas utiliza un SLM de solo fase que se puede montar muy cerca de la rejilla de acoplamiento, minimizando así el factor de forma del dispositivo. Además, a diferencia de las gafas AR convencionales, nuestro diseño holográfico puede proporcionar señales de profundidad 3D completas para contenido virtual, como lo ilustra el conejito (adaptado del Laboratorio de Gráficos por Computadora de Stanford). c, Prototipo compacto impreso en 3D que ilustra los componentes de nuestras gafas AR holográficas en un formato portátil
Holografía 3D real en unas gafas a lo Tony Stark
Es lo más parecido a lo que tenía Iron Man en las películas de Marvell: unas gafas holográficas con contenido 3D real a modo de AR, es decir, Realidad Aumentada con la que podemos interactuar en el día a día.
Para lograr esta hazaña, la Universidad de Stanford ha requerido de un nuevo sistema de visualización AR que combina un motor de luz holográfico sin cristales con una guía de ondas de "metasuperficie" optimizada para la visualización con una óptica transparente y compatible con Realidad Aumentada. Además, esto se hace a todo color como en una pantalla normal y en un tamaño que como vemos, es el de unas gafas comunes al uso.
Pero esto no termina aquí, porque aunque tienen por ahora un campo de visión algo reducido de 11,7 grados, el cual será ampliado más adelante, hablamos de una tecnología que permitiría a cualquiera que lleve gafas de visión para corregir su miopía o astigmatismo poder tener un modelo con AR holográficas mediante IA.
Pero entonces, ¿dónde se emplea la Inteligencia Artificial en estas gafas? Pues en lo que los investigadores llaman "modelo de guía de ondas físico aprendido", o lo que es igual, un algoritmo de IA que va aprendiendo de nuestro ojo para mejorar la calidad de la imagen y aprender de cómo enfocamos las distancias.
Por ello, estas gafas cambiarán la distancia focal para adaptarse automáticamente a nuestra visión y así tendremos el enfoque perfecto según donde miremos. De momento, y como hemos recalcado, son un prototipo, pero sin duda y visto lo visto, está muy avanzado. ¿Llegarán antes que la versión de Meta para 2027 tras invertir miles de millones en este diseño? En dos años y medio lo veremos.