NVIDIA se lo pondrá difícil a AMD en 2024: las GPU Blackwell HPC tendrán memoria HBM3E y 10 TB/s
Varios días después de que SK Hynix presentará su versión mejorada de la High Bandwidth Memory de tercera generación, ya existe información de que NVIDIA usará HBM3E para una futura GPU para el mercado HPC o de computación de alto rendimiento. Por lo que por el timing todo apunta a que podrían ir a parar a Blackwell, su chip de próxima generación que tendría un lanzamiento esperado para bien entrado el 2024.
Si bien SK Hynix no tendría a punto la producción en masa de sus HBM3E, la cual puede llegar hasta los 8 Gbps de ancho de banda por pin, lo que buscaría la empresa surcoreana sería repetir de nuevo con NVIDIA. Y es que las ventas de las H100 se han disparado en los últimos meses y la competencia no se está quedando atrás, por lo que si quieren seguir siendo el proveedor de NVIDIA tienen que dar chips de memoria cada vez más rápidos y su variante exclusiva y potenciada de la HBM de tercera generación parece ser el candidato adecuado.
NVIDIA se interesa por la HBM3E para su próxima GPU, pero no es lo que te crees
La actual memoria HBM3, que podemos encontrar en las NVIDIA H100, funciona a 6.4 Gbps, por lo que el salto a su versión mejorada con 8 Gbps no parece muy alto. Pero, por otro lado, el rendimiento de estos sistemas es muy dependiente del ancho de banda. Por lo que se va a intentar ir a por la memoria más rápida del momento y es de extrañar que los de Jensen Huang hayan decidido pedirle, según la información de varios diarios surcoreanos, muestras a SK Hynix para casar a la HBM3E con NVIDIA Blackwell, o más en concreto, con el chip B100.
Es decir, no estaríamos hablando del sucesor de la RTX 4090, sino del de la H100, y, por tanto, de la GPU que irá a servidores. Un mercado en que NVIDIA puede optar por una infraestructura más cara y donde se usan diseños más complejos. Si bien no está confirmado, todo apunta a que B100 podría ser una GPU disgregada en varios chips y tener más de 6 pilas de memoria HBM3E.
Aunque por el momento desconocemos cuál sería la configuración, no olvidemos que TSMC ya puede construir sistemas con 8 pilas de estos tipos de memoria y casos como las Instinct MI250X y MI300A/MI300X de AMD nos remitimos, pero, al mismo tiempo, ambas son sistemas multichip. No olvidemos que NVIDIA todavía ha de lanzar una GPU compuesta por varias piezas diferenciadas, pese a que ya han hablado de dicha posibilidad, no una, sino varias veces.
¿Qué podemos esperarnos de NVIDIA para el mercado HPC en 2024?
Pues por el momento poco sabemos, en la reciente Computex hablaron de Blackwell como Hopper Next y de como esperan un nuevo aumento de rendimiento para el año que viene, nada nuevo bajo el sol. Aunque, al mismo tiempo, no podemos olvidar que buena parte de las tecnologías que han servido para el desarrollo de los nuevos procesadores para HPC de AMD son de TSMC y NVIDIA se puede beneficiar de ello.
Por ahora el diseño más futurible es el que los propios ingenieros de la compañía bautizaron como COPA o Composable On-Package Architecture que no es otra cosa que una forma más de llamar a las GPU descompuestas en varios chips distintos como ya han hecho AMD e Intel. Entre las principales mejoras de la arquitectura se espera el uso de caché de tercer nivel, así como el aumento de la cantidad de pilas de memoria HBM de 6 a 10, esto último si los diagramas de ciertas patentes de NVIDIA como la que acompañan a esta sección corresponden con el diseño final.
Bajo dicha configuración, el futuro chip de NVIDIA con HBM3E en la patente podría alcanzar los 10 TB/s de velocidad de ancho de banda, una cifra, cuanto menos nada despreciable. Eso sí, por el momento desconocemos la configuración de esta potente GPU en lo que al número de SM se refiere. En todo caso, aún falta llegar a 2024 para saberlo definitivamente.