La memoria HBM4 cambia el juego en las GPU para IA: interfaz de 2.048 bits: menor apilamiento o más GB

La capacidad de aumentar el ancho de banda en las GPU de manera increíblemente rápida se lo debemos a la memoria HBM. Esta se estrenó en las gráficas AMD Radeon R9 Fury X allá por 2015, con una primera generación que funcionaba a 128 GB/s por apilamiento, pero estaba muy limitada. Ahora es momento de hablar de la futura memoria HBM4, la cual se espera que de un salto a una interfaz de 2.048 bits, lo que podría duplicar el ancho de banda respecto a la generación actual.

En las tarjetas gráficas hemos hablado siempre de su memoria VRAM y el ancho de banda, como factores bastante importantes. No es lo mismo tener memoria GDDR5 que GDDR6X tope de gama, pasando de un bus de 128 a 384 bits, si ponemos como ejemplo la RX 550 vs RTX 4090. Es un ejemplo exagerado, pero nos sirve para darnos cuenta de la enorme diferencia de ancho de banda que hay entre ambas. Sin embargo, cuando vimos que AMD empleaba HBM (High Performance Memory) en sus gráficas y esperábamos un gran aumento de rendimiento, no fue así.

La memoria HBM4 llegaría con una interfaz de 2.048 bits

Metax MXN100 HBM2E

Las primeras GPU de AMD con HBM1, estaban limitadas a solo 4 GB, pero afortunadamente hubo nuevas generaciones. Con HBM2, se duplicó la velocidad hasta 256 GB/s por apilamiento y la capacidad máxima fue de 8 GB. Tras esta, en 2018, se lanzó una actualización de la misma denominada HBM2E, la cual mejoró la velocidad hasta los 460 GB/s y se aumentó el límite a 24 GB.

A partir de aquí llegó la tercera generación con HBM3 por parte de Micron, la cual llegaba a 819 GB/s por apilamiento y con una capacidad de hasta 64 GB. Por último y donde estamos actualmente, es empleando la memoria HBM3E, la cual llega a alcanzar una velocidad de 1,2 TB/s por pila con un bus de 1.024 bits. Ya de por sí esta es rapidísima y se emplea en las más potentes GPU, pero ahora se revela que HBM4 llegaría con una interfaz de 2048 bits, lo que podría llegar a duplicar el ancho de banda en el mejor de los casos.

Con 2.048 bits, se requerirán la mitad de capas que con HBM3

Micron HBM3 Gen2

Para lograr esa situación ideal, deberían mantener la misma velocidad de transferencia con HBM4, algo que quizás no logra cumplirse. Sin embargo, la ventaja principal está en su interfaz de 2.048 bits, ya que directamente reduciría las capas de apilamiento o aumentaría los GB en las gráficas. Para que nos hagamos una NVIDIA H100 que es de las GPU más potentes para IA, emplea un total de seis apilamientos de memoria HBM3 con 1.024 bits, resultando en una interfaz de 6.144 bits.

Si la memoria HBM4 alcanza la interfaz de 2.048 bits prometida, serán necesarios 3 apilamientos (la mitad), para poder alcanzar los mismos 6.144 bits, a la vez que consigue el mismo rendimiento. Esto es muy pronto para asegurarlo, ya que el estándar más moderno actual, HBM3E se reveló en mayo de 2023 y solo hemos visto una GPU que va a utilizarlo por el momento, la NVIDIA GH200. Esta se convertirá en la gráfica más potente de NVIDIA para IA con un total de 282 GB de memoria HBM3E.