ChatGPT hace de oro a NVIDIA: se necesitarán 30.000 GPU para entrenar a la IA

Un nuevo informe desde TrendForce pone de manifiesto que la IA será el negocio del presente y del futuro de NVIDIA. La compañía desde hace años ya no se identifica como una empresa de gaming o de tarjetas gráficas como tal, ni siquiera de sistemas embebidos, sino un conglomerado que se centra en la IA. Por ello, noticias como la de hoy hacen sonreír a Huang, puesto que se espera que la demanda de chips para Inteligencia Artificial escale hasta los 30.000 anuales. Se podría decir que la IA ChatGPT está haciendo de oro a NVIDIA.

Todos los gigantes del sector están apostando por la Inteligencia Artificial desde hace algo más de 3 años. El despegue comenzó hace casi una década, pero en los últimos años se ha intensificado donde Microsoft, Google o la propia Baidu están creando productos a través de estos programas inteligentes, pero claro, necesitan chips para ello.

NVIDIA se frota las manos, la IA con ChatGPT es la lámpara mágica de oro para volver a ser rentables

NVIDIA ChatGPT IA

Pero no solo NVIDIA como tal, sino TSMC, Unimicron o AIChip están con los ojos con el símbolo del dólar en sus pupilas esperando los pedidos que están a punto de despegar. La demanda se ha intensificado y aunque surgirán problemas regulatorios con la misma en breve (hay que acotar sus usos y su expansión), lo cierto es que lo que está tirando del carro ahora mismo es sin duda robots de chats como el famoso ChatGPT.

Y es que estamos en la base de la torre ahora mismo, donde una IA puede trabajar para tareas específicas previo entrenamiento, y ese entrenamiento requiere cada vez más chips, en concreto, más GPU. Cuantas más tengamos lógicamente se acortan los plazos. Para ofrecer un contexto de cálculos y tiempo, en 2018 ChatGPT necesitaba 120 millones de parámetros a trabajar. En 2020 la cifra aumentó a 180 millones y ahora tres años después se estima que ya trabaja con casi 250 millones de parámetros.

NVIDIA podría enviar más de 30.000 GPU

GPU NVIDIA H100 Hopper

Si ya en 2020 con esos 180 millones de parámetros se necesitaban 20.000 GPU, en 2023 se prevé que NVIDIA logre enviar nada menos que 30.000 unidades de sus tarjetas gráficas destinadas al Deep Learning. Hay que decir a todo esto que las estimaciones de Trendforce están hechas en base a los chips A100 para dichos cálculos,

Poniendo de nuevo contexto, los A100 con arquitectura Ampere eran capaces de dar un rendimiento FP32 de 19,49 TFLOPS. En cambio, los actuales H100 ofrecen más del doble, 51 TFLOPS en los mismos puntos flotantes. Por lo tanto, 30.000 nuevas GPU basadas en H100 o en A100 suponen una potencia de cálculo mucho mayor que antaño, aunque se combinen.

AMD por su parte con su serie MI300 está entrando al mercado para competir con NVIDIA, pero necesita impulsar apartados como sus API y aplicaciones, su software en general, donde los verdes marcan mucho el terreno y la diferencia. Por lo tanto, NVIDIA, hasta que llegue Intel con Ponte Vecchio al menos, está dominando el mercado con mano de hierro y las oportunidades que se le abren en el camino solo van a engrosar su cuenta bancaria a base de bien, porque cada H100 está costando la friolera de 8.000 dólares solo el sistema MXM, un DGX con H100 se va a más de 35.000 dólares y con descuentos.

Como decimos, ChatGPT y lo que vendrá es una mina de oro para NVIDIA, y debido a ello, Intel y AMD quieren subirse al carro lo más rápidamente posible, porque la demanda está desbordada.