Azure Cobalt 100 y Maia 100: Microsoft lanza su propia CPU y acelerador de IA
Microsoft ha olido la sangre del negocio de la IA (el dinero), y una prueba de ello llega en forma de la CPU Azure Cobalt 100 y acelerador de IA Azure Maia 100. Básicamente, Microsoft ha lanzado su propio hardware para dar vida a sus propias plataformas en la nube Azure. De esta forma, Microsoft se iguala a otros gigantes en el mundo de los servidores, centros y datos, y la nube, como Google o Amazon. Estas compañías ahora tienen lo mismo en común, que es sus propios servidores dotados de hardware diseñado por ellos mismos.
Evidentemente, que Microsoft haya realizado tal movimiento es, en parte, gracias a NVIDIA. NVIDIA es líder indiscutible, pero también tiene el monopolio. Este monopolio se ha traducido en precios desorbitados, por lo que estas compañías han visto más rentable desarrollar sus propias soluciones, que seguir dependiendo de unos plazos cada vez más largos, y repentinas subidas de precio. Esto es lo que implica ahora mismo depender de NVIDIA.
Especificaciones de la CPU Microsoft Azure Cobalt 100
Por lo que sabemos, el Microsoft Azure Cobalt 100 es un procesador de 128 núcleos basados en cómo no, la arquitectura Armv9. Se ha diseñado de forma nativa para dar vida a la nube, y promete mejorar en hasta un 40% el rendimiento actual de las CPU Arm. La compañía no fue completamente transparente con las especificaciones, pero esta CPU haría uso de la plataforma Arm Neoverse CSS, con unos núcleos Noverse N2, personalizados por la propia Microsoft.
Por desgracia, desconocemos cualquier otra información. Salvo que Microsoft podría reemplazar en el futuro las soluciones de AMD e Intel por estos procesadores más eficientes, fáciles de refrigerar y asequibles. Es por ello que ambas compañías se han puesto las pilas desarrollando arquitecturas x86 de bajo consumo para luchar con Arm en servidores.
"La innovación de Microsoft va más abajo en el stack con este trabajo de silicio para garantizar el futuro de las cargas de trabajo de nuestros clientes en Azure. Priorizamos el rendimiento, la eficiencia energética y el coste. Elegimos esta innovación intencionalmente para que nuestros clientes obtengan la mejor experiencia que pueden tener con Azure hoy y en el futuro."
Microsoft Azure Maia 100: la aceleración de la IA de la mano de TSMC a 5 nm
Aquí tenemos el reemplazo de NVIDIA para acelerar la IA en los servidores de Azure. De aquí tenemos mucha más información, por lo que es evidente que Microsoft quiere dejarse ver en el campo de la IA. Y no es para menos, hay que recordar que ha invertido más de 10.000 millones de dólares en OpenAI, el padre de ChatGPT.
Fabricado por TSMC a 5 nm, nos encontramos con un chip que esconde 105.000 millones de transistores. Microsoft ha sacado pecho indicando que ya lo ha puesto a prueba con GPT 3.5 Turbo. Eso sí, por desgracia, no se indicó ninguna referencia de rendimiento respecto a las soluciones de AMD y NVIDIA para IA. En lo que respecta a rendimiento, únicamente sabemos que cada acelerador de IA Azure Maia 100 alcanza un ancho de banda de 4,8 TB/s.
Es muy probable que no sea capaz de competir con NVIDIA. Pero no le hace falta, Microsoft podría así aspirar a un mercado de aceleración de IA de bajo coste.
"Estábamos entusiasmados cuando Microsoft compartió por primera vez sus diseños para el chip Maia, y hemos trabajado juntos para perfeccionarlo y probarlo con nuestros modelos", declaró el CEO de OpenAI, Sam Altman, en la entrada del blog de Microsoft.
"La arquitectura de IA de extremo a extremo de Azure, ahora optimizada hasta el silicio con Maia, allana el camino para entrenar modelos más capaces y hacer que esos modelos sean más baratos para nuestros clientes."