Intel y NVIDIA forjan una alianza: NTC para alargar la vida de las GPU con 8 GB VRAM

AMD y NVIDIA tienen un problema en común: racanear en memoria VRAM en sus GPU de gama media, y ahora conocemos una alianza entre NVIDIA e Intel para buscar una solución con la compresión NTC. No, esta solución no pasa por añadir más memoria en las GPU de NVIDIA. Sino mejorar las tecnologías actuales de compresión de memoria. No solo hablamos de comprimir la memoria, es decir, que ocupe menos espacio, pudiendo almacenar más texturas en el mismo espacio. Sino que gracias a la IA, esta textura no solo reducirá su peso, sino que mejorará en cuanto a la calidad visual respecto a las tecnologías actuales.

Ahora bien, no te levantes del baño y aplaudas mientras leas esto, y es que por ahora, no será tan bonito como esperas. Para empezar, habrá que esperar bastante tiempo para que esto llegue. Y claro, cuando lo haga, necesitarás una tarjeta gráfica con diversas funciones de renderizado neuronal impulsadas por IA. Dicho de otra forma, que requiere de una GPU moderna. Por lo que más que una solución, significaría realizar optimizaciones en las propias texturas. Por lo que también puede entenderse como no tener que aumentar drásticamente la capacidad de memoria VRAM en toda la gama de GPU.

Intel y NVIDIA muestran resultados prometedores con la compresión neural de texturas (NTC)

El video que acabas de ver, es una demostración que se centra en las mejoras de la compresión neural de texturas (NTC). De forma rápida y sencilla, estamos ante una técnica basada en IA que promete reducir significativamente el volumen de las texturas en memoria (VRAM) sin sacrificar la calidad visual. Por lo que quiere llegar para reemplazar a las técnicas tradicionales como BC7 o BC3 con las que se compara.

Intel y NVIDIA son las compañías que se encuentran detrás de impulsar esta tecnología de compresión de memoria. Esta demo está fuertemente respaldada de la API DirectX “Cooperative Vectors”. Que es esenciar para activar las unidades especializadas de IA de cada GPU. Es decir, que permite que el hardware de IA integrado en las GPU de NVIDIA (Tensor Core) e Intel (XMX) hagan el trabajo que se le ha pedido.

Esta tecnología ya la hemos visto en el pasado. Pero por suerte, la nueva información ofrecida por Compusemble indica que siguen trabajando no solo en su adopción. Sino que ahora Intel se ha unido a NVIDIA en un intento de adoptarla próximamente.

¿Cómo funciona el NTC?

Tecnologia compresion neuronal de texturas (NTC) por IA - Intel y NVIDIA

Básicamente, el NTC (Neural Texture Compression) convierte texturas en pesos neuronales, luego un pequeño modelo de IA las reconstruye en tiempo real. De forma rápida y sencilla, los pesos neuronales son simplemente números que usa una inteligencia artificial para tomar decisiones. Dicho de otra forma, en vez de guardar una imagen de la textura, es como si guardara solo las instrucciones que la IA necesita para volver a dibujarla con mucha precisión. Su utilidad es reducir tamaño de las texturas en hasta un 96%, manteniendo una calidad casi idéntica. Pero gracias a la IA, esta se reconstruye mejorándole la calidad visual.

Lo que vistes en el vídeo al principio, ese T-Rex caminando, que recuerda a la demo de la PlayStation 1, es una demostración de Intel. En ella se mostró texturas más nítidas con NTC frente a métodos tradicionales. Para la reconstrucción se utilizó los núcleos dedicados para IA presentando un tiempo de respuesta de ~0.045 ms frente a ~5,7 ms sin hardware dedicado. La demostración de NVIDIA es un casco de piloto. En ella se muestra que las texturas, sin comprimir, ocupan 272 MB de memoria. Con BC, se ocupa 98 MB, Y con la nueva tecnología NTC ocupa únicamente 11,4 MB. Lo que significa un ahorro enorme de VRAM.

Su adopción tendrá un enfoque propietario (NVIDIA) y no propietario (Intel)

Tecnologia compresion neuronal de texturas (NTC) por IA - Intel y NVIDIA

Como no podía ser de otra forma, la solución de Intel está diseñada para no ser propietaria. Es decir, que funcionará en GPU incluso de gama baja, o de otros fabricantes. Ahora bien, esto tiene un coste a nivel de rendimiento al usar el hardware de la GPU para ayudar a la memoria por IA. Una NVIDIA GeForce RTX 4080 SUPER, en la demo, vio reducido el espacio de la textura en un 96%, pero reduciendo en un 15% el rendimiento (velocidad de frames). GPU menos potentes, con Tensor Core más antiguos, "solo" lograron un 64% de compresión, pero sin penalización de rendimiento por el procesamiento.

Por ahora, el estado de esta tecnología es simplemente una demo. Tocará esperar que se integre en los principales motores gráficos. No se sabe cuando, así que hasta entonces, los 8 GB de VRAM seguirán siendo un problema.