Así es lo último de NVIDIA, GB200 NVL4 para IA: 4 x GPU Blackwell, 2 x CPU Grace, 1,7 TB de memoria y un consumo monstruoso de 5.400W
NVIDIA es la compañía de tarjetas gráficas más conocida del mundo y aunque hace años que está en cabeza en cuanto a ventas, cuando la IA empezó a popularizarse, todo fue a más. NVIDIA pasó a convertirse en la empresa más valiosa del mundo si tenemos en cuanta sus grandes ventas en el sector de GPU para IA. Vimos como las H100 se agotaban y había periodos de espera largos. Cuando anunciaron la nueva generación con Blackwell, las expectativas de ventas eran aún mayores y ahora vemos que NVIDIA ha presentado la GB200 NVL4 que incorpora cuatro de estas GPU con 2 CPU Grace junto a una enorme cantidad de memoria y consumo para el mejor rendimiento en IA.
En el momento en el que la inteligencia artificial empezó a popularizarse fue cuando vimos que las acciones de NVIDIA se disparaban y estuvieron subiendo constantemente a lo largo de todo 2023 y 2024. La compañía empezó a dar resultados financieros donde el sector de centros de datos e inteligencia artificial era el que más crecía con diferencia. Si bien habíamos conocido a NVIDIA por sus GPU gaming, estas apenas le daban dinero en comparación con la IA. Por ello, podemos entender que cuando le tocó presentar la nueva generación en la Computex 2024, solo se centró en las gráficas para inteligencia artificial.
NVIDIA presenta su GB200 NVL4 con cuatro gráficas B200 que ofrecen 768 GB de memoria HBM3E con un ancho de banda de 32 TB/s
La arquitectura Blackwell es la que dará vida a las tarjetas gráficas RTX 50 de NVIDIA, pero sobre estas no sabemos nada y no será hasta el CES 2025 cuando se revelen. Lo que si tenemos son las GPU para IA basadas en esta arquitectura, siendo las B200 las gráficas Blackwell de nueva generación que reemplazarán a las H100. La demanda de estas gráficas que se encuentran en sistemas como los DGX B200 es tan alta que toca pagar más de 500.000 dólares para tener uno de estos con 8 GPU B200.
NVIDIA continúa presentando sus productos basados en esta arquitectura y ahora tenemos la nueva plataforma GB200 NVL4, la cual incluye 4 GPU Blackwell conectadas mediante NVLink. Combinando las cuatro gráficas tenemos 768 GB de memoria HBM3E con un ancho de banda de 32 TB/s. Además de esto, se incluyen 960 GB de memoria RAM LPDDR5X conectados a las CPU Grace. Esto se acompaña con un consumo de energía de 5.400W, algo de esperar si el GB200 NVL2 ya consumía 2.700W. Como podemos ver, en términos de rendimiento es 2,2 veces más rápida en simulación y 1,8 veces más rápida en entrenamiento e inferencia comparado al H200 NVL con arquitectura Hopper y 4 GPU.
La H200 NVL nos permite tener hasta 4 GPU con 141 GB de memoria HBM3E cada una
Hablando de Hopper, aunque esta sea la pasada generación de gráficas, NVIDIA también ha anunciado la disponibilidad en el mercado de sus H200 NVL. Este es un sistema que permite tener hasta 4 tarjetas gráficas H200 conectadas mediante NVLink. Cada una de estas GPU tiene formato PCIe con 141 GB de memoria HBM3E, un ancho de banda de 4,8 TB/s y un consumo de hasta 600W. En la comparativa que realiza NVIDIA, vemos que ofrecen 1,5 veces más memoria HBM, un rendimiento en HPC 1,3 veces superior y un rendimiento en inferencia 1,7 veces más rápido comparado con las H100 NVL.
Si hacemos una comparativa contra Ampere que sería una generación aún más atrás, aquí hablamos de una mejora de 2,5 veces el rendimiento en HPC. Empresas como Dropbox ya han aprovechado para adquirir equipos con H200 NVL y así acelerar las tareas que requieren el procesamiento de grandes cantidades de datos, inteligencia artificial y aprendizaje automático.