La GPU AMD Instinct MI300X para IA vende mejor de lo esperado, roba cuota de mercado a NVIDIA

Desde finales del año pasado, cuando ChatGPT empezó a causar furor en todo el mundo, la IA se ha convertido en el punto de mira de la mayoría de grandes compañías. Estas se enfocan en entrenar modelos de IA para competir contra OpenAI y lograr una parte del mercado. Hay mucho interés, pero sigue sin haber un competidor real y en estos momentos, la demanda de GPU para IA es enorme. Si bien NVIDIA ha liderado en este sector con sus H100 y A100, ahora es el turno de AMD, pues su Instinct MI300X ha logrado tener buenas ventas iniciales y robar parte de cuota de mercado a NVIDIA.

NVIDIA ha estado liderando esta gran avalancha de interés por la IA, pues la compañía ha visto sus ingresos dispararse junto a sus acciones. 2023 se ha convertido en un año muy rentable para NVIDIA, pues sus GPU eran las más rápidas para entrenar modelos de IA. AMD parecía que se había rendido, pero tras mucho tiempo, por fin lanzaron su Instinct MI300X, la GPU para IA más potente de la compañía. Cuando esta se presentó de forma oficial hace alrededor de un mes, AMD mostró en sus gráficos como su MI300X era un 60% más rápida que la H100 de NVIDIA.

Las MI300X ya empiezan a llegar a los primeros clientes y roban cuota de mercado a NVIDIA

NVIDIA H100 vs AMD Instinct MI300X

Esto empezó a causar una especie de pelea entre ambas compañías, pues poco tiempo después de esa comparativa de AMD, NVIDIA contraatacó diciendo que habían hecho trampa. Según dijo la compañía de Jensen Huang, AMD no había utilizado software optimizado para sus sistemas DGX H100 y por tanto, NVIDIA hizo sus propias pruebas. Aquí demostraron que sus resultados dejaban a la H100 como el doble de rápida que la MI300X, dejando a AMD en muy mala posición.

Aun así, AMD decidió contestar a esta derrota con una victoria, mostrando como su MI300X era el doble de rápida en vLLM y un 30% más rápida en TensorRT-LLM. Ahí es donde acabaron las disputas y parece ser que la GPU de AMD ha captado bastante interés en el sector de la IA, pues esta ha empezado a robar cuota de mercado a NVIDIA y provocar "dolores de cabeza" a la compañía rival. Las GPU MI300X ya se están enviando a sus clientes y entre estos hay empresas como LaminiAI, la cual hace unos días realizó un pedido masivo de estas gráficas.

AMD espera conseguir unos ingresos de 400.000 millones de dólares en el sector de la IA en 2027

MI300X vLLM TensorRT H100

Precisamente LaminiAI trabaja conjuntamente con AMD, pues han creado los denominados LaminiAI LLM Pods, que nos recuerdan a los DGX SuperPOD de NVIDIA, aunque a menor escala. Mientras NVIDIA hace frente a la gran demanda y pedidos de sus GPU, AMD empieza un nuevo camino en este sector de la industria tan rentable. De hecho, AMD tiene esperanzas de que el segmento de la IA le proporcione unos ingresos de 400.000 millones de dólares en 2027.

NVIDIA ha sido la que ha tenido el liderazgo en ventas durante todo 2023, pero quizá en 2024 veamos el impacto de AMD en el mercado. Según pudimos ver en cuestión de especificaciones, la MI300X tiene 2,4 veces más memoria, 1,6 veces más ancho de banda y 1,3x más TFLOPs FP8/FP16 comparado con la NVIDIA H100 actual. Eso sí, recordemos que NVIDIA está preparándose para lanzar una H200, por lo que la MI300X de AMD podría ser superada en breves.