La IA y HPC disparan la demanda de memoria HBM en un 60% para 2023
Gracias a los últimos informes del analista TrendForce, conocemos que este año la memoria High Bandwidth Memory (HBM) está experimentando una alta demanda gracias a la Inteligencia Artificial (IA) y a la Computación de Alto Rendimiento (HPC). Evidentemente, en IA, ChatGPT está haciendo que toda la industria fabriquen en masa una nueva generación de potentes superordenadores. Es por ello que NVIDIA ha experimentado un enorme crecimiento de ventas de aceleradoras de IA. Y sí, todas estas gráficas hacen uso de una gran cantidad de memoria HBM.
La memoria HBM es la solución ideal para evitar las limitaciones de ancho de banda de otros chips de memoria como puedan ser los GDDR6. Además de su enorme ancho de banda, son muy eficientes. Dos motivos más que suficiente para ser la única memoria empleada a día de hoy para dar vida a GPUs para IA de primer nivel. TrendForce prevé que la demanda mundial de HBM experimentará un crecimiento anual de casi el 60% en 2023, alcanzando los 290 millones de GB, con un crecimiento adicional del 30% en 2024.
ChatGPT y el resto de IA's son las culpables del aumento de la demanda de memoria
Según las previsiones de TrendForce, para el año 2025, y teniendo en cuenta cinco productos AIGC de gran escala equivalentes a ChatGPT; 25 productos AIGC de tamaño medio de Midjourney; y 80 productos AIGC pequeños, los recursos de computación mínimos necesarios a nivel mundial podrían oscilar entre 145.600 y 233.700 GPU Nvidia A100. Se espera que tecnologías emergentes como los superordenadores, el streaming de vídeo 8K y la VR/AR, entre otras tecnologías, aumenten simultáneamente la carga de trabajo de los sistemas de computación en la nube debido a la creciente demanda de computación de alta velocidad.
Sin ir más lejos, este fin de semana conocíamos que Oracle invertirá miles de millones de dólares únicamente en gráficas de NVIDIA para IA. En concreto, se espera que únicamente, a lo largo de este año, instale un total de 16.000 gráficas tope de gama de NVIDIA para IA en sus servidores.
La IA es quien está acelerando el uso de memoria HBM y gráficas tope de gama
El analista concluye que los servidores de IA son los que están incentivando esta creciente demanda de memoria HBM. Todos los servidores de primer nivel están equipados con gráficas NVIDIA A100, H100 y AMD MI300. Por otro lado, compañías como Google y AWS están desarrollando sus propios ASIC para intentar aprovechar la gallina de los huevos de oro de este año.
Se estima que el volumen de envíos de servidores de IA, incluidos los equipados con GPU, FPGA y ASIC, alcanzará casi 1,2 millones de unidades en 2023. Esto marca una tasa de crecimiento anual de casi el 38%. TrendForce también prevé un aumento paralelo del volumen de envíos de chips de IA, con un crecimiento potencial superior al 50%.
La HBM es inequívocamente una solución superior para construir plataformas informáticas de alta velocidad, gracias a su mayor ancho de banda y menor consumo de energía en comparación con la SDRAM DDR. Esta distinción queda clara al comparar la SDRAM DDR4 y la SDRAM DDR5, lanzadas en 2014 y 2020 respectivamente, cuyos anchos de banda sólo diferían en un factor de dos.
Independientemente de si se utiliza DDR5 o la futura DDR6, la búsqueda de un mayor rendimiento de transmisión conllevará inevitablemente un aumento del consumo de energía, lo que podría afectar negativamente al rendimiento del sistema. Tomando como ejemplo HBM3 y DDR5, el ancho de banda de la primera es 15 veces superior al de la segunda y puede mejorarse aún más añadiendo más chips apilados. Además, la HBM puede sustituir a una parte de la SDRAM GDDR o la SDRAM DDR, con lo que se gestiona mejor el consumo de energía.