Micron firma con NVIDIA para abastecerle de HBM3e a su H200, con un menor precio y un 30% menos de consumo

Una de las demandas del mercado para la IA es la oferta de HBM3e disponible por parte de los fabricantes de memoria. Hasta ahora las dos coreanas dominaban el mercado, pero en un giro de guion llega Micron, la última en aparecer en este segmento, y anuncia que se acaba de hacer con el abastecimiento de HBM3e para NVIDIA H200. ¿Cómo es posible? Pues tiene dos buenas bazas.

Dentro de poco hará un año que Micron dijo que entraría de lleno en el mercado de la HBM3e, en verano de 2023 para ser concretos. Pues bien, llega tarde, pero no mal, puesto que sus dos rivales directos no han logrado hacer lo que los americanos sí que han conseguido para la tercera generación de memorias de alto ancho de banda.

No es la más rápida ni la que más capacidad logra, pero Micron suministrará las HBM3e de las NVIDIA H200

Lo anunciado a bombo y platillo por el gigante americano de la memoria no es baladí. Su HBM3e no llega más tarde y mejor, todo lo contrario, está por debajo de las expectativas que cabría esperar para el tiempo que ha estado en desarrollo.

Para ser concretos, Micron anuncia una velocidad de 9,2 GB/s por pin, que es inferior a los 9,8 GB/s de Samsung y a los 10 GB/s de SK Hynix. Esto deja unos rendimientos por stack de 1.178 GB/s vs 1.254 GB/s vs 1.280 GB/s.

Rendimiento máximo por pin Rendimiento máximo por pila Capacidad máxima por pila
HBM1 1,0 GB/s 128 GB/s 1 GB
HBM2 2,0 GB/s 256 GB/s 8 GB
HBM2E 3,6 GB/s 461 GB/s 16 GB
HBM3 6,4 GB/s 819 GB/s 24 GB
HBM3E (Micron) 9,2 GB/s 1.178 GB/s 36 GB
HBM3E (Samsung) 9,8 GB/s 1.254 GB/s 48 GB
HBM3E (SK Hynix) 10,0 GB/s 1.280 GB/s 48 GB
HBM4 ? Más de 1.500 GB/s 48 GB
HBM4E ? Más de 2.000 GB/s 64 GB

Por si esto no fuese desventaja suficiente en cuanto al rendimiento, clave no obstante para la IA, en capacidad también están por detrás con 36 GB (24 GB de primeras el mes que viene) por stack frente a los 48 de ambas firmas coreanas.

Entonces, si llega tarde, no es más rápida y no tiene mayor capacidad que sus rivales, ¿cómo se ha hecho Micron con el suministro de HBM3e para las NVIDIA H200 frente a SK Hynix y Samsung?

Un precio de derribo y un consumo muy reducido

Micron-HBM3e-24-GB-stack

Las dos bazas que comentábamos más arriba vienen de parte del precio y del consumo energético. En primer término, siendo este el precio, no está claro realmente, puesto que la compañía en su comunicado solo se ha referido a que sus HBM3e son más económicas que las de la competencia, y esto tiene un hilo conductor con el tema del consumo: su proceso de producción 1-beta.

Y es que Micron afirma que es clave para lograr reducir el consumo de energía un 30% por debajo de la competencia, lo que unido a un precio menor parece ser suficiente para que NVIDIA haya puesto los ojos en la compañía con la que comparte bandera para las HBM3e de sus H200.

Micron-HBM3e-especificaciones

Estas memorias llegarán en marzo para lograr los 144 GB que necesita la serie H200, de los cuales y sabemos que solo 141 GB estarán activos. Micron asegura que veremos esta HBM3e con 36 GB en 12 niveles para finales de año con más de 1,2 TB/s, y además, adelantó su nuevo roadmap, donde hace referencia a HBM4 y HBM4e, así como GDDR7, RDIMM, MCRDIMM, MRDIMM, CXL 3, LPCAMM2 y MTCO.

Micron-roadmap-2024-2028-memoria-HBM3e,-HBM4,-HBM4e,GDDR7,-RDIMM,-MCRDIMM,-MRDIMM,-CXL-3,-LPCAMM2-y-MTCO

La gran mayoría llegará a partir de 2025 con la vista puesta hasta 2028, así que quedan 3 años de novedades bastante intensas que iremos viendo conforme se den los lanzamientos y los productos a los que acompañen.