Nvidia anuncia su plataforma HGX AI con las nuevas Nvidia A100 80GB

Hoy Nvidia anunció el lanzamiento de su nueva plataforma de supercomputación Nvidia HGX AI, la cual estará alimentada por las nuevas gráficas Nvidia A100 con 80 GB de memoria HBM2E para alcanzar un ancho de banda de 2039 GB/s (+25% vs Nvidia A100 40GB) con un TDP de 250W respecto a los 400W de las soluciones en formato SXM2 (a la derecha de la imagen).

Junto a estas nuevas GPUs tenemos las tecnologías de networking Nvidia NDR 400G InfiniBand (64 puertos @ 400 Gb/s) y de software Nvidia Magnum IO GPUDirect Storage (permite el acceso directo a la memoria entre la memoria de la GPU y el almacenamiento).

NVIDIA HGX AI: Nvidia A100 80GB PCIe vs Nvidia A100 40GB en SXM2
Nvidia HGX AI con 2x Nvidia A100 80GB PCIe vs 8x Nvidia A100 40GB en SXM2

Para acelerar la nueva era de la IA y el HPC industrial, Nvidia ha añadido tres tecnologías clave a su plataforma HGX: la GPU PCIe Nvidia A100 80 GB, la red Nvidia NDR 400G InfiniBand y el software de almacenamiento Nvidia Magnum IO GPUDirect Storage. Juntos, proporcionan un rendimiento extremo para hacer posible la innovación en la HPC industrial.

"La revolución HPC comenzó en el mundo académico y se está extendiendo rápidamente a una amplia gama de industrias", dijo Jensen Huang, fundador y director ejecutivo de Nvidia.

"Las dinámicas clave están impulsando avances súper exponenciales de la ley de Moore que han hecho del HPC una herramienta útil para las industrias. La plataforma HGX de Nvidia brinda a los investigadores una aceleración informática de alto rendimiento sin precedentes para abordar los problemas más difíciles que enfrentan las industrias".

Artículos relacionados