AMD apoyará a Celestial AI para las GPU del futuro con Photonic Fabric: chiplets, interposer, HBM y DDR5 con un 90% menos de consumo

Desde que se presentaron las nuevas GPU para IA de NVIDIA con arquitectura Blackwell no han sido pocos los que han criticado un aspecto clave de estas. Hasta Jim Keller ha lanzado improperios a NVIDIA por usar dos tecnologías propias en vez de usar abiertas: NVLink e Infinity Band. Como sabemos, el diseño e integración han costado más de 10.000 millones desde su primera revisión y son, por un lado, una gran alternativa, pero por otro, es inasumible a escala y en costes. Aquí entra Celestial AI, una compañía que ha prometido revolucionar el sector mediante su tecnología Photonic Fabric, la cual, se dice que AMD está ya apoyando activamente.

La tecnología fotónica es una realidad a día de hoy, salvo que para diversos usos todavía no está lista. En el segmento de los servidores, la IA y el hardware que se integra para ellos, sea GPU o acelerador exclusivo, para escalar el número de unidades por rack y por complejo informático el coste térmico, de rendimiento y de dinero es inmenso, pero la solución está en camino.

Celestial AI recibirá el apoyo de AMD para hacer posible su Photonic Fabric

Celestial-AI-Photonic-Fabric

Y claro, te estarás preguntando que qué es Photonic Fabric, bien, vamos a verlo superficialmente, porque la información es escasa. Esta tecnología desarrollada y creada por Celestial AI es una interconexión óptica entre diversos chips, en concreto, GPU que según la compañía ofrece un "salto transformador en el rendimiento del sistema de IA que es diez años más avanzado que las tecnologías existentes".

Por ello, Celestial AI está enfocada en tres áreas de desarrollo: chiplets, interposers y un optical spin que desarrolla por un lado con Intel para EMIB de nueva generación, y por otro con TSMC y CoWoS, siendo la misma tecnología con dos implementaciones distintas, a la que han llamado OMIB.

¿Qué tiene que ver todo esto con lo que estábamos hablando? Pues todo. Para interconectar los chiplets, los interposers y los optical spin se necesita un bus de interconexión de altísima velocidad, y el nexo de unión entre todos ellos es precisamente Photonic Fabric.

DDR5 y HBM unidas para reducir el consumo de energía y mejorar el rendimiento

La estrategia de Celestial AI con Photonic Fabric no solamente es conectar todo lo comentado, sino hacerlo además mediante la combinación de DDR5 y HBM. Al unir chiplet, interporser y optical spin junto con ambos tipos de memoria han calculado que el gasto energético se reducirá bastante.

En concreto, dicho cálculo ronda el 90%, lo cual es una cifra de ciencia ficción en estos momentos con la tecnología actual. Dado que los chiplets podrán utilizar la capacidad de memoria adicional en estos dos tipos e interconectarlas entre sí con CXL 3.0, se cree que podrá funcionar sin problemas como una interconexión chip a chip.

Celestial-AI-progresión-de-mermoia-y-ancho-de-banda-en-computación

Para que nos entendamos, funcionaría como una especie de NVLink actual, pero de forma óptica. Los datos que aporta Celestial AI hablan de nada menos que 1,8 Tb/s por milímetro cuadrado para la primera generación y el doble para la segunda al duplicar el número de carriles de Photonic Fabric de 4 a 8. Esto dejaría un ancho de banda de 112 Gb/s mediante PAM4 SerDes.

El número final y general sumado todo esto y puesto en contexto será de 14,4 Tb/s interno y 1,8 TB/s de manera externa, es decir, chip vs chip.

Eficiencia y latencia

Tecnología-Photonic-Fabric-mediante-fibra-óptica

Dave Lazovsky, CEO de Celestial AI, deja una serie de frases donde compara su tecnología frente a la de NVIDIA actual:

"Ofrece todos los beneficios de capacidad y costo de DDR y el ancho de banda y los 32 pseudocanales de interconectividad de HBM, lo que oculta la latencia. Nuestra sobrecarga de energía de transacción de la memoria es de aproximadamente 6,2 picojulios por bit frente a aproximadamente 62,5 a través de NVLink, NVSwitch para una transacción de memoria remota.

XPU,-PIC-y-HBM-Celestial-AI

La latencia total de ida y vuelta para estas transacciones de memoria remota, incluidos los viajes a través del Photonic Fabric y los tiempos de lectura de la memoria, es de 120 nanosegundos. Por lo tanto, será un poco más que los aproximadamente 80 nanosegundos de memoria local, pero es más rápido que ir a Grace, leer un parámetro y pasarlo a un Hopper".

Sabiendo que AMD Ventures es uno de los patrocinadores de esta tecnología Photonic Fabric, no cabe duda que Lisa Su intentará hacerle la competencia directa a NVIDIA en GPU en solamente algunos años. En principio, para 2027 si todo va como debe, ya que están en plena ronda de financiación y ya llevan recaudados 175 millones, por lo que a más dinero reciban, seguramente tengan antes lista esta tecnología para lanzarla de forma masiva con sus socios.