NVIDIA hace que la memoria HBM3 suba de precio tras alabar a ChatGPT

Hace solo unos días vimos cómo NVIDIA ponía en un altar lo que había conseguido ChatGPT y de cómo estaba causando en la industria un efecto similar al que consiguió el iPhone de Apple en los smartphones. El problema es que NVIDIA últimamente está resumiéndose con un dicho español muy conocido como es "cada vez que hablas sube el pan", ya que estas declaraciones han tenido un efecto boomerang no deseado, principalmente porque la memoria HBM está subiendo de precio, cosa que seguro NVIDIA no quería tras hablar de ChatGPT. A cambio, las ventas de GPU están remontando.

Se podría decir eso de que "en boca cerrada no entran moscas", porque la que ha liado NVIDIA le va a estallar en la cara, literalmente. Jensen Huang quiso enaltecer y encumbrar lo realizado por OpenIA y ahora Microsoft, y le está saliendo "el tiro por la culata".

NVIDIA, ChatGPT y el precio de la HBM3: acción y reacción

NVIDIA ChatGPT IA

Será la mayor innovación dentro del sector de la informática y la IA como tal, pero de poco va a servir si la dinámica se mantiene a este ritmo. Desde Corea del Sur informan sobre sus dos principales fabricantes de HBM, como son SK Hynix y Samsung, los cuales han comentado que están subiendo el precio de todos sus módulos de HBM, sea HBM1 o HBM3, la pregunta es ¿por qué ocurre esto y ahora? Ya te lo habrás imaginado, pero la respuesta es simple: están desbordados tras un aumento de la demanda brutal en este tipo de memoria para tarjetas gráficas.

Al ser una memoria apilada de alto ancho de banda y un precio ajustado frente a GDDR6X, este tipo de VRAM es barata por una parte, y cara por otra. El diseño del chip y esta VRAM tiene un interposer "en medio", encareciendo el conjunto y solo es factible en productos muy enfocados al máximo rendimiento y mínimo consumo (que no es que sea bajo, sino que se busca ahorrar cada vatio posible).

En concreto, la HBM es tres veces más cara que un chip DRAM para memoria común, y además, las líneas de producción de cualquier modelo de estas están en mínimos... Hasta ahora.

La producción está desbordada por una demanda sin precedentes para la IA

Tras las declaraciones de Huang, NVIDIA ha recibido una cantidad de pedidos en sus GPU brutales, todo en poco más de 24 horas, lo que ha hecho que la empresa se haya tenido que poner manos a la obra para pedir materiales, entre ellos, memoria HBM3. En concreto, SK Hynix ha sido la elegida una vez más y al parecer, esto les ha pillado de improviso tras haber cerrado líneas de producción por la casi nula demanda que estamos experimentando.

Por ello, debido a la alta demanda y casi nula oferta, el precio está subiendo rápidamente. Desde Corea apuntan a que esto será un nuevo negocio dentro del sector de la IA:

La llegada de ChatGPT, un chatbot de inteligencia artificial (IA), está brindando oportunidades para que los fabricantes coreanos de semiconductores de memoria creen un nuevo negocio. ChatGPT aprende una gran cantidad de datos a través de una inteligencia artificial (IA) supergrande y responde preguntas de forma natural. La velocidad de procesamiento de datos DRAM se ha vuelto importante para servicios de ChatGPT mejorados y más rápidos.

Teniendo en cuenta que SK Hynix domina casi todo el mercado, y tiene el monopolio junto con Samsung, la primera con hasta un 70% de cuota, la segunda con algo más del 15%, apenas dejan migajas para el resto. Además, el número de GPU NVIDIA en los servidores de OpenAI es ya de 25.000 unidades y necesitan más, por lo que tanto Samsung como SK Hynix tienen, técnicamente hablando, "una avalancha de pedidos" que no pueden abordar.

En cualquier caso, NVIDIA ha provocado este incremento de precio de la HBM con sus declaraciones sobre ChatGPT, síntoma de lo vulnerable que es el mercado y donde todo el mundo busca invertir simplemente porque un CEO alaba algo en su propio beneficio.