SK Hynix produce en masa las memorias HBM3E más rápidas y con mayor capacidad del mundo para las GPU de IA: 12 capas y 36 GB por pila
SK Hynix anunció, por fin, la producción en masa del primer producto HBM3E de 12 capas con una capacidad de 36 GB, marcando un hito en el desarrollo de la memoria de alto ancho de banda, también conocida como HBM. Por supuesto, la tecnología de esta HBM3E promete mejorar considerablemente el rendimiento de las memorias utilizadas en aplicaciones de IA y otros sectores de alto rendimiento, algo que tanto Intel, como AMD y NVIDIA necesitan. ¿Por qué es tan importante la producción en masa de esta HBM3E de 12 capas y 36 GB?
Según SK Hynix, la nueva HBM3E de 12 capas está diseñada para ofrecer el mayor rendimiento y capacidad disponibles en el mercado. Las mejoras, que son muchas, han sido confirmadas por la propia empresa donde ahora podrá suministrar en cantidad a los tres principales actores de la industria de las GPU.
SK Hynix ya puede producir en masa sus nuevas HBM3E de hasta 36 GB en 12 capas, ¿será NVIDIA la primera en hacerse con ellas?
La empresa coreana logró aumentar la capacidad en un 50% sin incrementar el grosor de cada pila en comparación con su versión anterior de 8 capas. Para ello, redujeron el espesor de los chips DRAM en un 40%, lo que permitió un apilamiento más eficiente mediante la tecnología TSV (Through Silicon Via), que conecta verticalmente los chips de memoria DRAM a través de diminutos orificios entre capas.
Según la compañía, la nueva HBM3E estará disponible para los clientes sobre finales de este año, demostrando el liderazgo tecnológico de SK Hynix, que seis meses antes ya había sido la primera empresa en el mundo en suministrar un producto HBM3E de 8 capas.
Desde 2013, SK Hynix ha mantenido su liderazgo en la memoria HBM, desde la primera generación (HBM1) hasta la más reciente (HBM3E). Con este nuevo desarrollo, la empresa refuerza su posición en el mercado de la memoria para IA, donde las demandas de velocidad, capacidad y estabilidad son críticas para las aplicaciones avanzadas de IA.
La memoria HBM3E más rápida del mundo
El HBM3E de 12 capas no solo cumple, sino que supera los estándares actuales en estas áreas clave y por mucho, a rivales como Samsung o Micron.
La velocidad de transferencia de datos de este nuevo producto de memoria de alto ancho de banda (HBM) es de 9,6 Gbps, la más alta registrada en la actualidad. Esto permite, por ejemplo, que una única GPU equipada con cuatro unidades HBM3E pueda procesar modelos de lenguaje grandes (LLM) como "Llama 3 70B" de Meta, manejando 70 mil millones de parámetros 35 veces en un solo segundo.
La capacidad mejorada y el rendimiento de este nuevo HBM3E se deben a varias innovaciones técnicas. SK Hynix ha implementado su proceso avanzado de apilamiento MR-MUF (Mass Reflow-Molded Underfill o Moldeo por Reflujo Masivo), que mejora la disipación del calor en un 10% en comparación con las generaciones anteriores. Este método también garantiza una mayor estabilidad y confiabilidad, controlando eficazmente la deformación de los chips al apilar capas más finas.
El uso de TSV también ha sido clave para lograr un apilamiento eficiente, interconectando los chips DRAM a través de electrodos que atraviesan verticalmente los componentes. Este avance ha permitido que la empresa mantenga el mismo grosor de chip, pero con una capacidad significativamente mayor, mejorando tanto el rendimiento como la eficiencia térmica.
SK Hynix no bajará el pie del acelerado y menos tras saber lo que invertirá Samsung en DRAM y NAND Flash
Justin Kim, presidente y director de infraestructura de IA de SK Hynix, expresó su orgullo por el nuevo avance, afirmando que la empresa sigue empujando los límites tecnológicos en el campo de las memorias:
"Nuestra capacidad de innovar constantemente y desarrollar productos que superen los desafíos de la era de la IA nos coloca como el proveedor número uno a nivel mundial", comentó Kim. También agregó que SK Hynix continuará desarrollando soluciones de memoria de próxima generación para seguir liderando el mercado en los próximos años.
Ahora les toca mover a sus rivales, los cuales están al acecho, como ya vimos en sus respectivos roadmaps.