La evolución de las GPU para IA da miedo: se espera que consuman más de 15.000W dentro de 10 años
A finales de 2022 tuvimos el boom de la IA provocado principalmente por OpenAI tras lanzar ChatGPT. Aunque ya existían varios modelos de IA generativa antes de este chatbot, se centraban principalmente en crear contenido como imágenes. Con ChatGPT lo que tuvimos fue la llegada de una IA generativa de textos que era mucho más útil para la gran mayoría de la gente. Desde entonces hasta ahora solo han pasado poco más de dos años y ya hemos visto el progreso tanto en los modelos de IA como en el propio sector y todo lo que está involucrado en él. Hablando de GPU para IA, ya nos habíamos quejado de como están provocando que suba el consumo a medida que se quieren entrenar modelos más complejos, pero resulta que esto es solo el principio, pues dentro de 10 años se espera que estas gráficas lleguen a consumir más de 15.000W.
En el momento en el que la IA empezó a popularizarse fue cuando todo comenzó a cambiar. Al principio parecía muy sutil, pero rápidamente se extendió la terminología de "inteligencia artificial/IA/AI" que empezamos a ver en todas partes. Ordenadores, móviles, apps de todo tipo, dispositivos, productos electrónicos, TV, electrodomésticos. Todo empezaba a adoptar la IA como la nueva tecnología que cambiaría la sociedad moderna y la forma de hacer las cosas.
Las próximas GPU para IA tendrán un consumo muy superior: en 2035 podrán superar los 15.000W
Para poder progresar y conseguir nuevos modelos de IA más complejos y precisos se requerirá un hardware cada vez más potente. Debido a esto, empresas como NVIDIA y AMD han puesto el acelerador y no paran de lanzar nuevas GPU para IA cada vez más bestias. La nueva AMD MI350 puede llegar a consumo hasta 1000W en el modelo refrigerado por aire y hasta 1.400W con refrigeración líquida. De la misma forma, la NVIDIA B300 también consume 1.400W.
Si ya estas cifras de consumo nos parecían ya muy altas, lo que se avecina es mucho peor. Como podemos comprobar, dentro de 10 años, en 2035, podrán llegar a consumir 1.200W por cada GPU. Aquí tendremos chips enormes compuestos por 8 GPU y 32 módulos de memoria HBM7. Con un enorme tamaño de 96,4 mm x 95,9 mm conseguimos una capacidad de hasta 6.144 GB de memoria HBM7 y un consumo de nada menos que 15.360W.
Tendremos nuevos sistemas de refrigeración para poder enfriar estas gráficas
El ancho de banda dentro de una década será de 1.024 TB/s, una auténtica barbaridad. Al menos estos son los pronósticos si hacemos caso al roadmap propuesto por KAIST. Algo mucho más cercano sería la llegada de NVIDIA Rubin en 2026 con hasta 2.200W de consumo y hasta 384 TB de memoria HBM4. La siguiente generación sería Feynman en 2029 con un mayor tamaño por chip de GPU llegando a 750 mm2. Aquí vemos 4 chips de GPU, 8 stacks de memoria HBM5, un ancho de banda de 48 TB/s, hasta 500 GB de memoria HBM5 y hasta 4.400W de consumo.
La siguiente generación a Feynman llegaría en 2032 donde repetimos los 4 chips de GPU, pero aquí duplicamos los stacks de memoria. Así pues, conseguiremos llegar a 1.920 GB HBM6 con un ancho de banda de 256 TB/s y un consumo de casi 6.000W. Como podemos ver en la comparativa de memoria HBM y sistemas de refrigeración, en la actualidad usamos líquida D2C y aire forzado. En HBM5 y HBM6 se empleará refrigeración por inmersión y en HBM7 y HBM8 se usará embedded cooling.