Elon Musk ha puesto en marcha el clúster de IA más potente del mundo con 100.000 GPU NVIDIA H100

Para poder crear un modelo de IA avanzado como GPT de OpenAI, se requiere una enorme cantidad de hardware en forma de GPU de NVIDIA para poder realizar este proceso de la forma más rápida posible. Estas GPU han sido tan demandadas que había que esperar mucho tiempo para recibirlas. Aun así, Elon Musk quería conseguir 100.000 GPU NVIDIA H100 para poder entrenar su IA y ahora vemos que cumple sus palabras, anunciando que pondrá en marcha el "clúster de IA más potente del mundo".

Cuando la IA empezó a ser el tema principal de habla y desarrollo a nivel mundial, es cuando vimos ese enorme incremento del valor de las acciones de NVIDIA. Esto estaba directamente relacionado con sus GPU para IA, pues estas eran consideradas la mejor opción en cuanto a hardware para poder entrenar modelos de inteligencia artificial. A pesar de que ya ha pasado un tiempo, la demanda sigue siendo muy elevada y no parece que vaya a reducirse.

Elon Musk anuncia con orgullo la creación del Memphis Supercluster con 100.000 GPU NVIDIA H100 para IA

Desde que ChatGPT empezó con el boom de la IA que la ha popularizado en todo el mundo, la industria al completo se ha centrado por seguir desarrollando modelos de IA más avanzados. Al igual que OpenAI tenía GPT-3.5, GPT-4 y otros modelos, vimos que Google también había desarrollado el suyo propio bajo el nombre de Gemini y también tenemos el caso de Anthropic con Claude. Las empresas tecnológicas iban a competir por ver quién podía ofrecer la mejor IA y esto incluye la compañía xAI de Elon Musk.

Fue Musk el que anunció que estaba dispuesto a crear una inteligencia artificial más avanzada, la que él denominó como Grok 3. En ese momento esperaba tener en posesión 10 veces más gráficas que Grok 1 y 5 veces más gráficas que Grok 2. Lo que parecía imposible parece ser que se ha cumplido, pues el propio Elon Musk ha celebrado en X el inicio del nuevo sistema que hará uso de nada menos que 100.000 GPU NVIDIA H100 con refrigeración líquida.

Microsoft Eagle en comparación hace uso de 14.400 GPU H100

Elon Musk superordenador xAI Grok

Elon Musk denomina a este equipo como el clúster de IA más potente del mundo, denominado como Memphis Supercluster. Si es cierto que emplea ese número tan grande de GPU, probablemente lo sea, pues el superordenador Frontier hace uso de 37.888 GPU de AMD y Microsoft Eagle emplea 14.400 GPU H100. Para poder conseguir esa enorme cantidad de hardware en un tiempo relativamente corto, Musk ha tenido que depender de Supermicro, la cual proporcionó gran parte del hardware.

El CEO de Supermicro, Charles Liang, respondió al hilo de X para dar la enhorabuena a Musk de este gran trabajo para crear Memphis. Sobre este no sabemos mucho más, salvo el hecho de que Musk ha dicho que ya ha empezado a entrenar una IA. Esta será la inteligencia artificial más potente del mundo, la cual en principio debería ser Grok 3. No se han dado detalles si esta tendrá el mismo nombre y concepto o será un nuevo modelo del cual no han hablado antes. Por otro lado, la fase de entrenamiento de la IA finalizará en diciembre de 2024.