Este es el plan de NVIDIA para dejar atrás a AMD, Intel, Google, Meta y OpenAI en IA

NVIDIA siente la presión. Aunque domina en el hardware de IA con un software muy contundente y amplio, la realidad es que la competencia está invirtiendo ingentes cantidades de dinero para hacerse con un hueco en el mercado. Por competencia hablamos de Meta, Google, Amazon, AMD y OpenAI, entre otros, por lo que los verdes deben dar un puñetazo en la mesa si quieren tirar del tablero algunas de estas fichas... Y puede que lo consigan. ¿No nos crees? Pues con este Roadmap de NVIDIA para IA hasta 2025 puede que te convenzas.

La información aquí es limitada, aunque ya hemos visto algunas pinceladas como con el GH200, pero lo que está claro es que igual que Intel ha pisado el acelerador en el sector de PC y portátiles, ha reestructurado el de GPU e IA, ahora NVIDIA copia la estrategia y pretende mantener el trono a base de diversificación y chips, muchos chips.

NVIDIA Roadmap para IA hasta 2025: ¿quién les va a seguir el ritmo?

NVIDIA-Roadmap-IA-2025-GPU-H200,-B100-y-X100

Y es que es eso, un ritmo endiablado y una diversificación que hacen temblar las FAB de TSMC. Tenemos que tener en cuenta que pasamos de cuatro chips y una variedad limitada de sistemas DGX a una ola de ellos en apenas unos meses.

Por ejemplo, del actual H100, chip estrella para IA dentro del sector de entrenamiento e inferencia ya se ha pasado al L40S como gama inferior para empresas de menor calado que buscan una mejor relación rendimiento/precio, donde no se compite con modelos LLM como tal.

El sucesor del H100 será el H200, del cual no hay datos todavía, pero parece que será un upgrade que implementará de inicio TensorRT-LLM. Por encima está el mencionado GH200 Grace Hopper Superchip que mejora el rendimiento del H100 en un 17%, y por encima de este estarán las versiones GH200NVL para servidores DGX con NVLink en su haber y aquí hay un factor diferenciador, puesto que en la velocidad de interconexión y de la memoria va a estar la clave, y ahí NVIDIA tiene mucha ventaja con su tecnología y con HBM3E.

Blackwell llegará a mitad del año que viene

NVIDIA-Blackwell-RTX-50

Será un despliegue de la arquitectura general en los dos sectores con más beneficios para NVIDIA. Primero llegarán estas opciones para IA, luego las tendremos con sus respectivos chips para PC y gaming. Centrándonos en lo que nos interesa en este artículo, que es la IA, el H200 dejará paso al B100, el cual se comenzará a enviar como ES en apenas dos meses, para más tarde sorprender con la nueva arquitectura Arm para inferencia de NVIDIA, de la cual no sabemos todavía nada, y que se llamará Grace Blackwell GB200 Superchip.

Por supuesto, habrá versión para DGX con NVLink llamada GB200NVL que será el tope de gama que se puede comprar para conseguir el máximo rendimiento en LLM training e inferencia en general. No podemos olvidarnos de la versión recortada del B100 original que llegará para empresas catalogado como B40.

A partir de ahí, pisotón al acelerador para dejar atrás a todos, porque a principios de 2025 y solo meses después llega una nueva arquitectura totalmente desconocida para todos, pero que debutará con la GPU X100. Al parecer, NVIDIA va a homenajear al matemático Xavier Gómez-Mont, mejicano doctorado por la Facultad de Ciencias de la Universidad Nacional Autónoma de Méjico y doctor en la Universidad de Princeton, algo que está todavía por confirmar.

Sea como fuere, el salto evolutivo que se espera con X100 es de al menos dos magnitudes. En primer lugar, porque NVIDIA va a usar HBM3E junto con la IP SerDes PHY 224G-LR, la cual estará fabricada por TSMC a 3 nm.

Para el que no sepa qué es SerDes 224G, resumiendo, es una IP de nueva generación que admite velocidades de datos desde 1 hasta 225 Gbps con un BER increíble y además en formato de largo alcance gracias, en parte, a PAM4. O lo que es igual, es una nueva IP para interconectar hardware de IA en paralelo sincronizando los enlaces mediante la más alta velocidad en un formato de red masiva.

Esto es disruptivo en el mercado de IA, puesto que mejorará la rapidez de cualquier Chatbot como ChatGPT o Bard al responder una consulta.

Un golpe a sus competidores que les está haciendo replantearse sus productos

SuperChip NVIDIA GH200 Grace Hopper

Intel, de alguna manera que no conocemos, supo del juego de NVIDIA de cara a 2025 y hace pocos meses cambió su roadmap para IA con Ponte Vecchio y sus sucesores, pero es que AMD ha cancelado el MI350X de sopetón. Los objetivos ahora son Gaudi 3 y MI400X, pero todavía no sabemos cómo va a reaccionar ante esta serie de golpes empresas como Microsoft, Google o Amazon.

Lo que sí que sabemos es que los de Jeff Bezos van a lanzar Trainium2 e Inferentia3, así como Microsoft va a moverse hacia Athena. Meta se mueve hacia su MTIA y Apple.... Ni está ni se la espera, para ser honestos.

Por lo tanto, la potencia informática de cálculo para LLM e inferencia va a ser cada vez más una curva que se va a ir tornando poco a poco más vertical en estos años, producto del inicio y disrupción de una tecnología como la IA, pero este Roadmap de NVIDIA para ella muestra cómo los competidores van a pie cambiado y están replanteando su estrategia, porque ninguno de los grandes se esperaba una aceleración tan brutal por parte de Jensen Huang.

Nadie quiere depender de NVIDIA, pero nadie le va a poder hacer frente en tiempo y forma, por lo que, si las previsiones de chips que hemos visto se cumplen, el dominio de los verdes no ha hecho más que empezar, porque en Intel y AMD no saben ni por dónde les sopla el viento en estos momentos y todo parecen prisas por ponerse al día para llegar en las mejores condiciones a 2025, porque 2024 lo dan por perdido frente al empuje de NVIDIA.