Samsung confirma que la memoria HBM4 para las GPU llegará el año que viene con 16hi y fabricada en 3D
Micron dio el pistoletazo de salida a la nueva memoria que llegará, según su roadmap, el año que viene. Como era de esperar, el gigante de los chips de memoria ha salido a la palestra a decir que también estará en la competición, aunque lleve 5 meses de atraso comparado con los americanos. Y sí, Samsung pondrá sobre la mesa memoria HBM4 para 2025 con dos novedades: 16 Hi y 3D.
El sector de la IA necesita hardware cada vez más rápido, y como sabemos, la memoria es el principal cuello de botella una vez saltemos el de los buses de interconexión con fibra óptica como Photonic Fabric de Celestial AI (AMD de por medio). Pues bien, si esto está a la vuelta de la esquina, imaginemos la presión que tienen los fabricantes de memoria por reducir dicho problema, y el primer paso es avanzar en el mejor tipo de módulos posibles.
Samsung confirma su HBM4 para 2025 y podría poner contra las cuerdas a Micron
Ha sido mediante una publicación oficial en su sala de prensa donde los coreanos aceptan el reto que les puso Micron hace y a casi 5 meses. Hay que tener en cuenta que en febrero de este año Samsung presentó sus DRAM 12H HBM3e de 36 GB (HBM de quinta generación) de la industria, o lo que es igual, memoria HBM de 12 capas unidas mediantes TSV.
Como pasa en otras tecnologías, el problema central para seguir aumentando la capacidad por stack es el número de capas totales. A mayor número de ellas, más GB en el mismo espacio, y si se pudiese reducir el mismo o usar un consumo inferior. La arquitectura que se está usando ahora mismo es 2.5D, pero Samsung va a ir un paso más allá.
La nueva HBM4 llegará el año que viene, seguramente a finales del mismo, con hasta 16 Hi en sus stacks, lo que significa que si usamos 3 GB por capa tendríamos una capacidad por pila de 48 GB.
Hasta 384 GB en una única GPU para IA
Dado que la HBM4 solo se usará en GPU para IA o aceleradores con el mismo propósito, vistos los controladores de memoria actuales, las nuevas GPU de Intel y NVIDIA podrían tener hasta 384 GB de memoria. Al menos, si se mantienen las 8 stacks actuales.
Para lograr esto, Samsung habla de un Troquel Base, que entendemos que es similar a lo que ha usado Intel en Meteor Lake, al cual llamaron Base Tile y está fabricado a 16 nm. Samsung habla de dicho troquel base, el cual estará ubicado en la parte inferior del troquel central y servirá para comunicar todos los chips.
Es decir, que su HBM4 será 3D para poder albergar ahí las sucesivas TSV y lograr los 16 Hi, lo que nos dejaría con módulos de 48 GB por pila y la sumatoria de esos 384 GB que hablábamos. El término que usan los coreanos es HBM-PIM (PIM-enabled High Bandwidth Memory) los cuales vimos en su primer boceto nada menos que en agosto de 2021.
En este caso, tenemos que hablar de nuevo de retrasos, puesto que estaban proyectadas para HBM3 y sus versiones, pero finalmente llegarán para HBM4 en 2025 con 16 Hi y 3D, así que Micron no lo tendrá nada fácil, eso seguro.