Nvidia Tesla A100: 6912 CUDA Cores bajo la arquitectura Ampere y 40GB de memoria HBM2E
Nvidia anunció la que se trata de la tarjeta gráfica más potente del mundo, hablamos de la Tesla A100, la cual emplea el silicio GA100 bajo la arquitectura Ampere a un proceso de fabricación de 7nm.
En un tamaño del die de 826mm2 nos encontramos con nada menos que 54.000 millones de transistores, 6912 CUDA Cores y 432 Tensor Cores. Pese al gran alarde de músculo, este no es el silicio completo, por lo que aún pueden venir criaturas de mayor envergadura.
Esto se traduce en un rendimiento FP32 de 19.5 TFLOPs, un rendimiento FP64 de 9.7 TFLOPs y un rendimiento FP64 Tensor Core de 19.5 TFLOPs.
La Nvidia Tesla A100 impresiona por integrar nada menos que 40 GB de memoria HBM2E junto a una interfaz de memoria de 5120 bits, emplea la tercera generación del NVLINK con un ancho de banda de 4.8 TB/s, estrena la interfaz PCI-Express 4.0 / SXM4, y tiene un TDP de 400W, 100W más que la Tesla V100 con 21.100 millones de transistores.
En lo que respecta al rendimiento, los nuevos Tensor Core son el doble de rápidos, mientras en lo que respecta al silicio, puede llegar a ser hasta 20x veces más rápido que la Nvidia Tesla V100 en Inteligencia Artificial (IA).
"Las poderosas tendencias de la computación en nube y la IA están impulsando un cambio tectónico en los diseños de los centros de datos, de forma que lo que antes era un mar de servidores sólo para CPU ahora es computación acelerada en la GPU", afirma Jensen Huang, fundador y Consejero delegado de Nvidia.
"La GPU Nvidia A100 supone un salto de 20 veces en el rendimiento de la IA y un acelerador integral para el Machine Learning, desde el análisis de datos hasta la formación y la inferencia. Por primera vez, las cargas de trabajo de escalado y escalado pueden acelerarse en una sola plataforma. La Nvidia A100 aumentará el rendimiento y reducirá al mismo tiempo el coste de los centros de datos".