Las CPU de Cerebras son 75 veces más rápidas en IA que las GPU NVIDIA de los servidores de Amazon

Desde que la inteligencia artificial se ha hecho popular, las empresas de todo el mundo han querido entrar en sector y poder sacar provecho del enorme potencial que tiene. Creando nuevos modelos de inteligencia artificial pueden conseguir clientes en todo el mundo y cobrar por una suscripción, al igual que ha hecho OpenAI. Para poder realizar los entrenamientos lo antes posible, siempre se ha mencionado que las GPU de NVIDIA son la mejor opción de hardware y debido a esto han tenido tan buenas ventas e incluso hay tiempos de espera largos para poder recibirlas. Para Cerebras y sus CPU, las GPU de NVIDIA no son tan impresionantes, pues pueden superarlas sin problemas siendo mucho más rápidas al enfrentarse a servicios que las emplean como AWS.

La mayoría de gente conoce la IA generativa desde hace años debido a Midjourney y otros servicios que se encargaban de generar imágenes a partir de prompts de texto. Si bien esto era bastante útil para algunas personas, muchas otras no le veían mucho sentido y en general se consideraba algo de nicho, hasta que ya empezó a popularizarse. No fueron las imágenes y tampoco las IA que hacían vídeos sino más bien las que servían como asistentes virtuales. El chatbot ChatGPT de OpenAI fue una de las causas por las que apareció ese gran interés en la inteligencia artificial.

Las CPU de Cerebras Inference son mucho más rápidas que las GPU de NVIDIA en AWS

Hay personas que están en contra del uso de la IA sobre todo cuando se han entrenado usando obras creadas por personas humanas, algo que hemos visto en el caso de artistas o incluso programadores. Una inteligencia artificial puede recrear casi cualquier cosa siempre y cuando haya sido entrenada para ello y así es como hemos visto experimentos de como es posible hacer que los robots sean capaces de cocinar o limpiar habitaciones. Después del éxito de ChatGPT, las grandes empresas quisieron rivalizar con sus propios modelos. Así es como hemos visto a Google, Microsoft o Meta desarrollar sus propias IA como la principal competencia.

A la hora de medir el rendimiento en IA solemos pensar que las GPU de NVIDIA es lo más avanzado que hay, pero según Cerebras, su servicio compuesto por CPU es mucho más veloz. En las pruebas realizadas en agosto, Cerebras Inference era 20 veces más rápido que las GPU de NVIDIA y en las más recientes han conseguido ser 75 veces más rápidas. Esto sería comparado contra servicios que usan dichas GPU como Amazon Web Services (AWS).

Las CPU Cerebras son casi 7 veces más rápidas que Fireworks, el servicio de IA más rápido con GPU

Cerebras WSE-3

Cerebras ha mencionado que sus procesadores Wafer Scale Engine pueden conseguir 969 tokens por segundo y el primer token se genera en 0,24 segundos, lo que es un récord mundial. Hace unos meses fue cuando vimos los Cerebras WSE-3 y lo gigantescos que eran al tener 900.000 núcleos y un rendimiento de 125 petaFLOPS. No nos extraña que estos enormes chips consigan superar a gráficas que a su lado son minúsculas. Otra de las pruebas realizadas muestran las CPU Cerebras superando a Fireworks, el servicio en la nube de IA más rápido con GPU.

En este caso le pidieron a la inteligencia artificial que escribiera código para crear un programa de ajedrez en Python. Mientras que Fireworks tardó 20 segundos, Cerebras Inference tardó únicamente 3 segundos, siendo casi 7 veces más rápido. En GPT-4 también se llevó el primer lugar siendo 12 veces más rápido y en Claude 3.5 Sonnet era 18 veces más veloz.