Nvidia responde a la Instinct MI100 con su nueva Nvidia A100 con 80GB de memoria HBM2e

Si hace unas horas AMD anunciaba su Instinct MI100, la cual denominó como la GPU HPC más rápida del mundo, parece que con el anuncio únicamente ha desatado que Nvidia sacara la artillería, una A100 con 80 GB de memoria HBM2e.

La bautizada como la tarjeta gráfica más potente del mundo para la Inteligencia Artificial cuenta con nada menos que 80 GB de memoria HBM2e que se traduce en un ancho de banda que supera los 2 Terabytes por segundo, siendo así la GPU para centros de datos más rápida del mundo.

NVIDIA A100 80GB

"Para obtener resultados de vanguardia en la investigación de HPC e IA es necesario construir los modelos más grandes, pero éstos exigen más capacidad de memoria y ancho de banda que nunca. La GPU A100 de 80 GB proporciona el doble de memoria que su predecesora, que se introdujo hace sólo seis meses, y rompe la barrera de los 2 TB por segundo, lo que permite a los investigadores afrontar los retos científicos y de datos más importantes del mundo", dijo Bryan Catanzaro, Vicepresidente de investigación de aprendizaje profundo aplicado de Nvidia.

La GPU Nvidia A100 de 80 GB está disponible en los sistemas NVIDIA DGX A100 y NVIDIA DGX Station A100, que también se han anunciado hoy y que se espera que salgan al mercado este trimestre.

Se espera que los principales proveedores de sistemas Atos, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta y Supermicro empiecen a ofrecer sistemas construidos con los sockets integrados HGX A100 en configuraciones de cuatro u ocho GPUs Nvidia A100 de 80 GB en la primera mitad de 2021.

DGX Station A100

Tal y como se indica, Nvidia también anunció el primer servidor del mundo a nivel petaescala, el Nvidia DGX Station A100, el cual ofrecerá 2,5 petaflops de rendimiento IA junto a 320 GB de memoria GPU.

"El Nvidia DGX Station A100 es también el único servidor para grupos de trabajo que soporta la tecnología de la GPU multi-instancia (MIG) de Nvidia. Con MIG, un solo DGX Station A100 proporciona hasta 28 instancias de GPU separadas para ejecutar trabajos en paralelo y dar soporte a múltiples usuarios sin afectar al rendimiento del sistema.

Artículos relacionados