Llevamos dos meses del año y la memoria HBM ya está agotada para todo 2024, ¿cómo van a crear GPU para IA y HPC?

Nada menos que el Vicepresidente de SK Hynix, Ki-tae Kim, ha puesto en relieve la situación que vive su empresa y que se está extendiendo a todos los grandes fabricantes de memoria del mundo. Y es que la memoria HBM en sus distintas versiones, sobre todo las más novedosas como HBM3e y la próxima HBM4 que está extremadamente cerca, está agotada para ambos casos y para todo 2024. En solo dos meses el stock ha volado, por lo tanto, ¿cómo van a crear más GPU para IA y HPC?

Sin lugar a dudas SK Hynix es la empresa número uno en cuanto a memoria HBM. Ni Samsung ni Micron le disputan realmente el trono, puesto que los coreanos están realmente dándolo todo para innovar constantemente y antes que nadie en este tipo de producto. Por ello, cuando su vicepresidente lanza unas declaraciones tan incendiarias... Hay que escuchar atentamente.

Gina Raimondo, Jensen Huang y ahora Kitae Kim: sin memoria HBM para 2024

Ki-Tae-Kim-SK-Hynix-memoria-HBM-agotada-2024

Hay factores de inestabilidad en un mercado que va como un jet de combate. Es un Lockheed SR-71 Blackbird modernizado que, como pasó con este impresionante avión de combate, tenía sus fugas. Kim afirma que aunque la demanda de semiconductores y productos tecnológicos punteros se está recuperando gracias a la expansión de la IA, los pronósticos para todos los tipos de memoria están creciendo, en especial, para HBM3e.

Por ello, y siguiendo el argumento, deslizó lo siguiente:

“Para mantener una ventaja sostenida en el mercado, la competitividad tecnológica es fundamental y, desde una perspectiva de ventas, acortar el TTM (Time to Market: el tiempo que lleva concebir un producto y llevarlo al mercado) es clave.

La base de las ventas de semiconductores es asegurar de forma preventiva volúmenes de clientes y negociar para vender productos de calidad en mejores condiciones. Tenemos un buen producto, así que ahora es una batalla de velocidad. La edición de HBM de este año ya está “agotada". Aunque 2024 apenas comienza, ya nos estamos preparando para 2025 para dominar el mercado”.

NVIDIA habría vendido ya todas las GPU Blackwell para 2024

NVIDIA-Roadmap-IA-2025-GPU-H200,-B100-y-X100

El mundo va a una velocidad que realmente sorprende. Se está comprando hardware y tecnología que no está siquiera a la venta, no tiene presentación oficial y, en muchos casos, se reserva por adelantado cuando todavía no está completo.

Léase aquí los futuros escáneres de ASML, los futuros procesos litográficos de Samsung, Intel y TSMC, o las GPU para IA de NVIDIA e incluso Intel. Los verdes ya han dejado claro que la demanda supera a la oferta, y no lo ha dicho cualquier persona, sino nada menos que Colette Kress, directora financiera de NVIDIA.

Para ser todavía más concretos y completar la información con los rumores que hay rodeándola, se dice que las B100 SXM y B100 PCIe y los servidores DGX compatibles que utilizan nuevos componentes no estarán "disponibles" tras su lanzamiento, principalmente porque está todo reservado, es decir, vendido.

Gina-Raimondo-mirando-una-oblea-de-Intel-3

La propia Gina Raimondo lo decía justamente anoche: "La demanda de chips para IA es alucinante", y conociendo un poco a Raimondo, estas palabras son se pueden tomar a la ligera. Uniendo lo dicho por SK Hynix, por NVIDIA y por el gobierno de los EE.UU., ya podemos imaginar la carrera totalmente inaudita que tiene el sector por la memoria HBM, la cual estará agotada para 2024 y ya todos piensan en 2025.