NVIDIA ACE cambia la forma en la que interactúas con los videojuegos: háblale a los NPC
Durante la Gamescom, NVIDIA anunció importantes actualizaciones en torno a su tecnología de personajes bautizada como NVIDIA ACE. Para entrar en contexto, NVIDIA ACE fue presentado oficialmente a finales de mayo. En concreto, hablamos una IA enfocada a mejorar la experiencia de cualquier juego a la hora de interactuar con un NPC (personaje no jugable). Por ejemplo, en cualquier juego, en vez de escoger una pregunta o respuesta, imagina que cada NPC integra ChatGPT, lo que te permitirá realmente hablar con un NPC inteligente. Esto implica tener conversaciones dinámicas y sin guionizar, con cualquier personaje dentro de un juego. Ahora bien, la tecnología ofrece más cosas.
Como su propio nombre sugiere, NVIDIA Avatar Cloud Engine (ACE) es un servicio que no solo aporta inteligencia a los NPC, sino que también estos personajes evolucionan con el tiempo, ofreciendo animaciones y expresiones faciales precisas, todo ello en tu lengua materna. Esto es gracias al poder de la IA generativa.
"La IA generativa tiene el potencial de revolucionar la interactividad que los jugadores pueden tener con los personajes de los juegos y aumentar drásticamente la inmersión en ellos", indica NVIDIA. "Aprovechando nuestros conocimientos en IA y décadas de experiencia trabajando con desarrolladores de juegos, NVIDIA está liderando el uso de la IA generativa en los juegos", indicó NVIDIA.
NVIDIA ACE se mejora con NeMo SteerLM
En concreto, las mejoras anunciadas durante la Gamescom las has podido ver arriba. Bajo el nombre de NeMO SterrLM estamos ante una nueva técnicas de entrenamiento que permite a los desarrolladores personalizar la personalidad de los NPC. Esto les permite ser más emotivos, realistas y ofrecer interacciones inolvidables. En el vídeo podemos ver como este NPC es capaz de responder a cualquier pregunta gracias a un micrófono y la IA.
Básicamente, imagínate jugar a un Cyberpunk 2077 o juegos repletos con líneas de texto, como el Baldur's Gate 3, donde puedes tener la oportunidad de preguntar lo que quieras a un NPC y que este te vaya dando respuestas. Esto tendrá aún mayor encanto en juegos que hayan sido diseñados pensando en esta tecnología, sino, sería una absoluta locura.
¿Cómo funciona esta tecnología?
Lo primero de todo, lo que estás viendo es una demo técnica de NVIDIA ACE basada en el motor gráfico Unreal Engine 5 junto a la tecnología NVIDIA RTX Direct Illumination (RTXDI). Esta mejora la iluminación y sombras con Ray Tracing. Adicionamente, emplea el NVIDIA DLSS para mejorar el aspecto visual y aumentar su rendimiento.
Esto no es todo. Se emplea NVIDIA Riva para añadir las capacidades de voz a texto y texto a voz. NVIDIA NeMO SterrLM potencia la conversación con IA, y Audio2Face se encarga de las animaciones faciales impulsadas por IA a partir de entradas de voz. Estos módulos se integraron perfectamente en la plataforma de servicios de Convai, líder en soluciones de enrutamiento de llamadas en lenguaje natural basadas en la tecnología más avanzada de reconocimiento de voz con IA, y se incorporaron al Unreal Engine 5 y MetaHuman, el creador de humanos de Epic Games, para darle vida a Jin, el protagonista del vídeo.
S.T.A.L.K.E.R. 2: Heart of Chornobyl, el esperado título de GSC Game World, al menos ofrecerá la tecnología Audio2Face en su nuevo título. Esto ofrece así un mayor realismo en lo que respecta a las facciones faciales a la hora de hablar o expresarse los personajes. De esta forma, vemos que ya la industria le ha puesto el ojo a estas tecnologías.