Nvidia Tesla P100 lanzada, se adelanta a AMD en traer la memoria HBM2

Nvidia anunció hoy el lanzamiento de sus gráficas Tesla P100 para dar vida a Centros de Datos, tanto con sus modelos con interfaz PCI-Express con 16 GB y 12 GB de memoria HBM2, como su variante dotada de la interfaz NVLink optimizada para servidores con 16 GB de memoria HBM2, por lo que en total tenemos ya tres Tesla P100 disponibles. Lo más gracioso de todo, es que si AMD fue pionera en llegar al mercado con la memoria HBM (integrada en sus Radeon Fury), además de anunciar a bombo y platillo la segunda generación (HBM2), ha sido la propia Nvidia la primera en traer esta nueva memoria al mercado.

Nvidia Tesla P100 PCI-Express

La GPU Pascal P100 hace uso del silicio Pascal GP100, el silicio tope de gama de la compañía que en su versión completa ofrecerá 3840 CUDA Cores junto a 240 TMUs y viene acompañada de hasta 16 GB de memoria HBM2 junto a 8 controladoras de memoria de 512 bits, lo que se traduce en una interfaz de memoria de 4096 bits que daría un ancho de banda de 720 GB/s en el mejor de los casos. Este silicio también está fabricado a una litografía de 16nm FinFet, es por ello que es de esperar una mejora drástica en el rendimiento disminuyendo aún más su consumo energético respecto a la anterior generación.

 1

La Nvidia Tesla P100 ofrece un rendimiento simple de 9.3 TFLOPs (vs 10.6 Mod. NVLink) y doble de 4.7 TFLOPs (vs 5.3) donde el modelo de 16 GB de memoria HBM2 alcanza un ancho de banda de 720 GB/s mientras que el de 12 GB alcanza los 540 GB/s. En ambos casos, ambas GPUs se refrigeran de forma pasiva pese a que estamos ante un TDP de 250W. Ni una palabra en torno a los precios.Nvidia Tesla P100 PCI-Express vs Nvidia Tesla P100 NVLINK especificaciones

Artículos relacionados