El Gobierno de EE.UU. quiere usar centrales nucleares para alimentar a los centros de datos de IA

La IA ha llegado para quedarse y aunque haya personas que estén en contra de su uso, al final las empresas han visto su gran utilidad. Con ayuda de la inteligencia artificial podemos acelerar tareas y llegar a automatizar procesos. El problema es que para poder desarrollar modelos de IA y seguir progresando, se emplean centros de datos con miles de tarjetas gráficas y un consumo energético enorme. Sabiendo esto, el Gobierno de EE.UU. está planteándose usar centrales nucleares para poder abastecer energía a estos centros de datos con GPU para IA.

A día de hoy, se están desarrollando cientos de modelos de IA para cumplir disantos objetivos. Hemos visto modelos de IA para uso general como chatbots que intentan competir contra ChatGPT. Aquí se entrenan con millones de parámetros y una enorme cantidad de información, pues su propósito es poder responder a todo tipo de preguntas con total seguridad. Por otro lado, tenemos modelos de IA que se enfocan en algún tema más específico y por tanto son entrenados solo con información útil para cumplir dicho objetivo.

Los centros de datos de IA consumen mucho y EE.UU. quiere usar centrales nucleares para cumplir la demanda energética

Centrales nucleares

El desarrollo de nuevas IA está siendo la prioridad de la mayoría de países y compañías. Solo en China, se aprobaron más de 40 modelos de IA en los últimos 6 meses. A pesar de que este país no puede adquirir hardware para IA por culpa de las sanciones estadounidenses, no ha dejado atrás la posibilidad de poder competir en este sector tan rentable. En el caso de Estados Unidos, como es habitual, tenemos empresas como OpenAI, Google, Microsoft y en general, las más importantes y avanzadas en inteligencia artificial.

Dos de ellas, Microsoft y OpenAI, quieren crear un centro de datos para IA que costará 115.000 millones de dólares. Este centro de datos podría llegar a tener varios superordenadores para IA llamados Stargate y debido a su gran consumo, se planeaban usar fuentes de energía alternativas como la nuclear. Ahora se revela que el Gobierno de EE.UU. está planteándose usar centrales nucleares para alimentar estos centros de datos y soportar así la enorme demanda de energía que requieren.

Las nuevas GPU para IA NVIDIA B100 llegarán a consumir hasta 1.000W cada una

 1

El Departamento de Energía (DOE), ha estado hablando con grandes compañías como Microsoft, Google y Amazon, para ver si pueden llegar a un acuerdo. La idea es empezar a utilizar centrales de fusión y fisión nuclear para satisfacer la demanda de energía y contribuir a la expansión de la IA. Recordemos que a pesar de que la inteligencia artificial ha progresado mucho en poco tiempo, acabamos de rozar la superficie de lo que es posible con esta.

Si ya para entrenar los distintos modelos de IA se emplean miles de gráficas de alto rendimiento, imaginad lo que se necesitará para crear una inteligencia artificial más avanzada o mejor aún, la ansiada AGI (Inteligencia artificial general). Si bien las actuales NVIDIA H100 pueden llegar a consumir 700W cada una, las futuras NVIDIA B100 Blackwell llegarán a consumir 1.000W.