Elon Musk manda un mensaje a Jensen Huang: su IA Grok 3 necesitará 5 veces más GPU que su predecesora, es decir, 100.000 gráficas NVIDIA H100

En estos momentos donde la IA es el centro de atención de todo el mundo, Elon Musk quiere destacar por encima de los demás. No es de extrañar, pues desde el lanzamiento de sus coches Tesla con tecnologías de conducción autónoma, ha habido un enfoque en la IA. Aun así, no fue hasta la creación de xAI cuando el magnate se lo tomó realmente en serio. Elon Musk ya ha empezado a dar detalles sobre la IA Grok 3 de nueva generación, la cual necesitará nada menos que 100.000 GPU NVIDIA H100 para entrenarla.

Con la inteligencia artificial hemos visto que es posible acelerar tareas y lograr cosas en una fracción del tiempo que se requería con los métodos tradicionales. Esto ha sido especialmente útil en ciertos sectores, donde debemos destacar incluso el de la investigación, mostrando como con IA se pueden descubrir nuevos materiales y alternativas. Ahora bien, para la mayoría de ciudadanos, la inteligencia artificial tiene más utilidad como asistente virtual y ahí es donde ChatGPT y otras han tenido una gran fama.

Elon Musk anuncia que la IA Grok 3 requerirá 100.000 GPU NVIDIA H100 para su entrenamiento

Elon Musk xAI chatbot IA Grok

Al igual que hizo Google, Microsoft, Meta o Amazon, Elon Musk y xAI también han estado haciendo sus avances en inteligencia artificial. Hace unos meses vimos como Musk había creado su propio chatbot llamado Grok, el cual tenía como objetivo ser un asistente virtual con IA para X. Los resultados iniciales del chatbot no parecían ser muy espectaculares y de hecho, probablemente se llegó a entrenar con datos de ChatGPT, dado que llegó a contestar como este. No obstante, Musk no iba a rendirse y continuó entrenando su modelo de IA para mejorarla. Hace alrededor de un año, adquirió 10.000 GPU (probablemente de NVIDIA) para encargarse de entrenar esta IA, pero su ambición va mucho más allá de eso.

Elon Musk ha informado de que su próxima generación de IA Grok 3 necesitará 10 veces más tarjetas gráficas que la primera versión de Grok y 5 veces más que Grok 2. Esto significa que para Grok 3 se requerirán 100.000 GPU NVIDIA H100, algo que no solo le costará mucho dinero, sino también tiempo. Y es que, el problema de las gráficas de NVIDIA es precisamente su fama, provocando que la demanda sea mayor que la oferta.

La escasez de GPU y su elevado consumo son los dos grandes problemas a los que se enfrenta Musk

 1

Elon Musk menciona las dificultades de conseguir esa cantidad de GPU en estos momentos donde la escasez está presente. Además de eso, está el problema del consumo, pues teniendo en cuenta que cada una de estas H100 consume 700W, hablamos de 70 megavatios de energía y si se suman servidores y refrigeración, podrían alcanzarse los 100 megavatios, el consumo de una ciudad pequeña. Por otro lado, ya se informó de que Meta había adquirido nada menos que 350.000 GPU NVIDIA H100 para IA. Aquí estamos hablando de una compañía mucho más grande que la recién creada xAI, pues al final, es la que antiguamente conocíamos como Facebook.

xAI por su parte, mencionó sus primeros 12 empleados en julio de 2023 y en su LinkedIn figura como una empresa de unos 50 trabajadores. Para finalizar, Elon Musk también mencionó sus predicciones sobre el futuro de la inteligencia artificial. Aquí es donde entra en escena la creación de una inteligencia artificial general (AGI), la cual superará a la inteligencia humana. Musk cree que al ritmo que vamos, tan pronto como en 2025 o 2026, tendremos la AGI preparada.