ChatGPT cuesta 700.000$ al día y los chips IA de Microsoft reducirán los costes
Si mencionamos la palabra IA o inteligencia artificial, la mayoría de personas la relacionarán con ChatGPT. Ha sido tal el éxito de este chatbot que decenas de millones de personas en el mundo lo conocen y hacen uso de sus funciones. Pero aunque la IA ChatGPT sea impresionante, hay que decir que el coste de funcionamiento es bastante alto. A OpenAI le cuesta 700.000 dólares al día mantener ChatGPT y necesita GPU NVIDIA, por lo que para reducir estos costes Microsoft diseñará sus propios chips de IA.
En muy poco tiempo hemos experimentado un montón de cambios en el sector de las IA, pudiendo ser empleadas para hacer todo tipo de contenido. IA que se volvieron populares como Midjourney fueron relegadas a un puesto secundario en cuanto llegó ChatGPT. En apenas unos días, el chatbot IA de OpenAI consiguió un millón de usuarios y unos meses después, en enero de 2023, consiguieron llegar a 100 millones de usuarios. La IA cada vez es más popular y esto lo vemos representado en las visitas de su página web, pasando de 619 millones en enero a 1.600 millones en marzo de 2023.
ChatGPT cuesta 700.000 dólares al día y Microsoft quiere reducir sus costes
Tras ver el éxito de la IA ChatGPT, todos han querido competir contra ella para llevarse una parte de este sector. Sin embargo, por el momento no ha habido ningún rival digno, tal y como vimos con Google Bard. Pero aunque veamos lo bien que le va a OpenAI con sus creaciones hay que tener en cuenta que la IA ChatGPT cuesta bastante dinero de mantener en funcionamiento. Según Dylan Patel, analista jefe de SemiAnalysis, ChatGPT cuesta alrededor de 700.000 dólares al día y 0,36 dólares por consulta.
Cada vez la emplean más usuarios y al final los costes van a más, teniendo en cuenta también las grandes inversiones en hardware. Se espera que ChatGPT tenga que encargar 30.000 GPU de NVIDIA durante este año y si son las H100, estaríamos hablando de casi 30.000 euros por gráfica. Haced cálculos y veréis que el precio es realmente alto y por ello Microsoft hará algo al respecto, diseñando sus propios chips IA para reducir los costes de ChatGPT.
Los chips de IA de Microsoft serán usados por OpenAI y Azure
Sobre los chips IA de Microsoft para ChatGPT ya hablamos hace unos días. Bajo el nombre Project Athena, estaríamos ante unos procesadores escalables diseñados con los 5 nm de TSMC. Podemos ver que Microsoft está trabajando en estos chips para poder reducir o eliminar por completo la dependencia de hardware de NVIDIA. Como bien sabemos, las tarjetas gráficas de NVIDIA son muy potentes, pero a la vez, el precio que tienen es muy alto.
Ya vimos como Elon Musk y su proyecto de TruthGPT también ha requerido invertir en 10.000 GPU NVIDIA, pero Microsoft no quiere seguir ese camino. Estos chips IA serán más baratos que las gráficas de NVIDIA y si las igualan en rendimiento permitirán tener una alternativa 3 veces más barata. Estos irían destinados a OpenAI y para los servicios de IA que ofrece Microsoft Azure.