NVIDIA tiene listas nuevas GPU para IA: H100 con 64 GB y 94 GB con interfaz SXM5
NVIDIA ha movido ficha en el escenario de la IA, ya de por sí colapsado tras el "boom" de esta. Y como pasará en el sector del gaming, la empresa quiere completar gama y huecos ateniéndose a los requisitos que se le exige desde las empresas. Por ello, el gigante verde tiene listos dos modelos más de su chip H100, el más potente hasta la fecha, donde la principal novedad es la VRAM que integrarán. Por eso, y amparándose en una de las versiones que tiene para el mercado chino, NVIDIA lanzará las H100 64 GB y H100 94 GB con interfaz SXM5.
Han sido vistas en el PCI ID Repository y como tal, NVIDIA ya atisba el futuro de la demanda con dos modelos que no serán tope de gama, pero que sí cubrirán otros aspectos del mercado. Lo raro de estas GPU son sus memorias, ambas en disposiciones poco habituales y que dejan algunas dudas al respecto.
NVIDIA H100 64 GB y H100 94 GB en SXM5, el rumor ahora se confirma
Lleva unos días dando ciertas vueltas por Internet dicho rumor, pero no había nada tangible, pero en el día de hoy sí que tenemos la primera prueba de que NVIDIA trabaja en el mercado de la IA para cubrir huecos, y de qué forma.
Además, lo hará con dos modelos con interfaz SXM5, la más vendida hasta ahora de NVIDIA por motivos obvios, o quizás no tan obvios. El hecho es que este formato de tarjeta implementa la versión china del H100 para dicho país, es decir, la H800 de 94 GB destinada en exclusiva al país de Xi Jinping. Esta tarjeta es peculiar por su VRAM, que también está limitada en ancho de banda, y por lo tanto, cumple las especificaciones y bloqueos que impone la administración Biden.
Lo que no está claro, ni en esta nueva H100 94 GB, ni en la versión H800 94 GB, es cómo se componen las pilas de memoria HBM. Lo más lógico es pasar de 20 Tiles a 16 y optar por 96 GB al completo, pero sobran 2 GB como tal, así que no termina de cuadrar y sigue siendo un misterio.
Nuestra teoría es que de los 6 stacks de HBM3, cuatro integran 16 GB, mientras que los dos restantes integran 15, haciendo el total de 94 GB y cuadrando así el bus, pero... No hay nada confirmado. Por otro lado, el ID que tendrá esta H100 94 GB es el 2339, quedándose justo por debajo de la H800 con misma cantidad de VRAM.
Estas GPU rompen moldes en la IA
NVIDIA ha escuchado las plegarias de las empresas y pondrá a su disposición un modelo más básico y barato, el cual será esta H100 64 GB. No sabemos su precio como tal, pero sí que tenemos su ID: 2337, lo que si lo situamos con sus hermanas la deja por encima de las versiones de 80 GB y 96 GB, curioso cuanto menos.
Hay que tener en cuenta que NVIDIA tenía hueco por abajo para situarla con ID, y en cambio ha optado por dejarla arriba de estas. Quizás tenga menos VRAM, pero pueda correr a mayores frecuencias para un mismo consumo, quién sabe, es muy pronto para tener certeza alguna.
En este caso, la configuración escogida por NVIDIA en cuanto a los stack de HBM3 debería de ser de 11 Tiles en 4 Stack más 10 Tile en los dos stack restantes. De momento, no hay más información, pero desde luego NVIDIA está dando al mercado lo que el mercado pide, un buen movimiento sin duda.