La IA de Chat GPT 5 necesitará 50.000 tarjetas gráficas para ser entrenada
El sector de la IA sigue de actualidad y es raro que no hablemos de ello cada día. La nueva noticia es bastante espeluznante en el buen sentido, porque aunque había rumores sin fundamento sobre GPT-5 de OpenAI, pero hasta ahora no había algo sólido para opinar sobre el hecho de que la empresa estuviese inmersa en su desarrollo. Elon Musk ha dejado unas declaraciones sorprendentes, principalmente porque no se trata de una de sus empresas, pero ha deslizado que GPT-5 está en camino y que necesitará entre 25.000 a 50.000 GPU conforme aumente su entrenamiento.
La cifra, ya de por sí gigante, es realmente complicada de sustentar en estos momentos. Como vimos esta mañana TSMC está colapsada y solo podrá poner "orden" en algún punto de 2025, muy lejos de los deseos de todos sus socios, comenzando por NVIDIA. Por ello, el acuerdo para las H100 con Samsung suena creíble de todas, y como era de esperar, OpenAI está un poco desesperada al parecer.
Chat GPT-5 necesitará una ingente cantidad de GPU para ser entrenado
Lo desvelado por Musk es un problema para OpenAI, porque aunque se equivoque en el número final, hay que entender que la cantidad de tarjetas gráficas y los modelos que se usan son uno de los grandes misterios de esta industria de la IA.
Que GPT-5 vaya a tener hasta 50.000 GPU en algún punto de su entrenamiento revela un número increíble y una potencia de cálculo y de ML impresionante. Para hacernos una idea, GPT-5 será 10 veces más potente según Musk que el actual GPT-4 que regenta ChatGPT.
Se supone (rumores a mí) que GPT-4 fue entrenado con unas cifras realmente impresionantes, ya que comenzó con 10.000 GPU NVIDIA A100 y terminó con más de 25.000 tarjetas. Dado el salto de rendimiento entre A100 y H100, unido a las cifras comentadas más los avances en los algoritmos, el dato de que GPT-5 será gracias a las GPU 10 veces más potente podría ser creíble hasta cierto punto.
NVIDIA es el rey midas y podría terminar, con razón, con Intel
El acuerdo entre Intel y NVIDIA dependerá más que del rendimiento del nodo en sí mismo, del número de GPU que pueda suministrar IFS como tal. Hay que tener en cuenta que no todo es GPT-5 para las GPU. Google, Microsoft, Amazon, Apple, Tesla y toda China en general necesitan GPU de diversa índole, rendimiento y precios.
El problema es el suministro y los precios que van creciendo conforme la oferta disminuye. Se estima que entre 2023 y 2024 se van a necesitar la friolera de 432.000 GPU NVIDIA H100 en total, con un valor de más de 15.000 millones de dólares.
NVIDIA es el rey midas, llegó antes que nadie y todo lo que toca lo está convirtiendo en oro. Por ello se especula, como bien vimos hace semanas, que las RTX 50 supondrán un salto de rendimiento muy grande, ya que los verdes van a poner toda la carne en el asador para explotar el rendimiento en IA, y por definición, en gaming.
¿Podrá NVIDIA satisfacer esta demanda? Tal cual dijimos, es un problema de package, de interposers, no es un problema de chips en sí mismos, ni de memoria HBM3. Por ello Samsung e Intel entran en la ecuación, porque casi medio millón de GPU en año y medio no es una demanda que sea precisamente fácil de satisfacer. ¿Afectará al mercado del gaming? Otra gran pregunta que tendremos que esperar año y medio al menos para responder.