Nvidia A100 PCIe: Aceleradora de 19.5 TFLOPs de potencia con un TDP de 250W

Nvidia anunció la versión PCI-Express 4.0 de su Nvidia A100 con el silicio GA100 @ 7nm, y esta no es otra que la Nvidia A100 PCIe, que si bien en especificaciones es idéntica a la Nvidia A100 SXM, lo que llama notablemente la atención es su TDP de 250W frente a los 400W del modelo SXM.

En un tamaño del die de 826mm2 nos encontramos con nada menos que 54.000 millones de transistores, 6912 CUDA Cores @ 1410 MHz y 432 Tensor Cores. Pese al gran alarde de músculo, este no es el silicio completo, por lo que aún pueden venir criaturas de mayor envergadura. Esto se traduce en un rendimiento FP32 de 19.5 TFLOPs, un rendimiento FP64 de 9.7 TFLOPs y un rendimiento FP64 Tensor Core de 19.5 TFLOPs.

Nvidia A100 PCIe

La Nvidia A100 PCIe impresiona por integrar nada menos que 40 GB de memoria HBM2E, que junto a una interfaz de memoria de 5120 bits, nos da un ancho de banda de 1555 GB/s. Esta GPU emplea la tercera generación del NVLink con un ancho de banda de 4.8 TB/s, estrena la interfaz PCI-Express 4.0 / SXM4, y tiene un TDP de 250W, 50W menos que la Tesla V100 con 21.100 millones de transistores.

En lo que respecta al rendimiento de la Inteligencia Artificial, los nuevos Tensor Core son el doble de rápidos, mientras en lo que respecta al silicio, puede llegar a ser hasta 20x veces más rápido que la Nvidia Tesla V100 en Inteligencia Artificial (IA).

Nvidia A100 PCIe

Nvidia y los principales fabricantes de servidores del mundo acaban de presentar sus sistemas basados en la tecnología A100 de Nvidia con una amplia variedad de diseños y configuraciones para afrontar los retos más complejos de la IA, la ciencia de los datos y la computación científica.

Se espera que, tras el lanzamiento el mes pasado de la arquitectura Ampere de Nvidia y la GPU A100 de Nvidia, se instalen más de 50 servidores A100 de los principales fabricantes del mundo, lo que incluye Asus, Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta/QCT y Supermicro.

La disponibilidad de los servidores varía, con 30 sistemas previstos este verano, y más de 20 más a finales de año.

"La adopción de las GPUs Nvidia A100 en la oferta de los principales fabricantes de servidores está superando todo lo que habíamos visto hasta ahora", afirma Ian Buck, Vicepresidente y Director general de informática acelerada de Nvidia "La enorme amplitud de los servidores A100 de Nvidia procedentes de nuestros partners garantiza que los clientes puedan elegir las mejores opciones para acelerar sus centros de datos con el fin de conseguir una alta utilización y un bajo coste total de propiedad".

La primera GPU basada en la arquitectura Ampere de Nvidia, la A100 puede aumentar el rendimiento hasta 20 veces más que su predecesora, lo que la convierte en el mayor salto de rendimiento de la GPU de la compañía hasta la fecha. Incluye varios avances técnicos, entre ellos una nueva tecnología de GPU multi-instancia que permite dividir una sola A100 en hasta siete GPUs distintas para manejar diferentes tareas de cálculo; la tecnología Nvidia NVLink de tercera generación que permite unir varias GPU para que funcionen como una sola GPU gigante; y nuevas funciones de dispersión estructural que pueden utilizarse para duplicar el rendimiento de una GPU.

Artículos relacionados