El Cerebras WSE se convierte en el chip de IA más rápido del mundo siendo 2,5 veces mejor que las GPU de NVIDIA
NVIDIA siempre ha sido conocida por ser la compañía creadora de las tarjetas gráficas GeForce para gaming. Durante décadas, estas eran las GPU más vendidas, superando a AMD e incluso en el sector profesional con las gráficas Quadro lograban mayores ventas que las de AMD. A día de hoy podemos decir que NVIDIA se está enfocando totalmente en la IA y las GeForce han pasado a un segundo plano, pero incluso con sus mejores GPU no ha podido estar a la altura del Cerebras WSE, el cual se ha convertido en el chip de IA más rápido del mundo.
Quién tiene el dominio y liderazgo en el sector de la inteligencia artificial es quién crecerá más rápidamente, al menos según hemos ido viendo. Un claro ejemplo de esto es NVIDIA, la cual solía estar segunda o tercera en cuanto a empresas con mayor capitalización, pero en cuanto reveló su récord de ingresos recientemente vimos como volvió a subir al primer puesto, liderando por encima de todas las demás y superando de nuevo a Microsoft.
El Cerebras WSE logra 2.500 tokens por segundo en IA superando a las mejores GPU de NVIDIA fácilmente
NVIDIA no para de crecer y la gran parte de sus ingresos provienen de los centros de datos e IA, por lo que ya nos imaginamos lo importantes que son sus gráficas. Han tenido tanta demanda que los pedidos se retrasaban por semanas e incluso meses y aunque se creía que se iba a perder el interés en la IA, no paramos de ver como cada vez se hace más grande.
NVIDIA presentó la nueva generación de GPU Blackwell hace meses y estas prometían ser más rápidas que la competencia. Hace una semana, NVIDIA anunció que había logrado alcanzar 1.000 tokens por segundo en Llama 4 utilizando sus GPU para IA, pero ahora han sido superados y por mucho, pues el Cerebras WSE ha logrado 2.500 tokens por segundo en esta misma prueba. Según Naor Penso, Director de Seguridad de Información de Cerebras, este chip es el más rápido del mundo para inferencia en IA.
El chip tiene 44 GB de memoria a 21 petabytes por segundo
La inferencia es el proceso de entrenamiento necesario para que una IA utilice los datos y aprenda con estos. El resultado final serían esos modelos de IA que tenemos y que nos permiten generar texto, imágenes, audio o vídeos. A mayor número de tokens más rápido es el proceso a la hora de generar resultados, por lo que esto se trata de algo muy importante para las compañías.
A medida que progresamos con la IA, se requiere un hardware más potente y más tiempo para conseguir mejores resultados. Los modelos de IA son cada vez más complejos y para mejorar sobre los anteriores se va a necesitar un mayor esfuerzo de tiempo, dinero y hardware. Para la IA no solo necesitamos chips muy rápidos, sino que además la memoria es muy importante. NVIDIA en cuanto a VRAM y velocidad está limitada, pero en el Cerebras se han añadido 44 GB de la memoria más rápida con un ancho de banda de 21 petabytes por segundo. Para que nos hagamos una idea esto implica 880 veces más memoria integrada que una NVIDIA A100 y 7.000 veces mayor ancho de banda que esta.