Nvidia Tesla P100 PCI-Express, disponible con 16GB/12GB HBM2

Nvidia anunció hoy su Tesla P100 con interfaz PCI-Express, una variante ligeramente menos potente que la basada en la interfaz NVLink optimizada para servidores, que estará disponible en dos variantes de 16 y 12 GB de memoria HBM2, por lo que en total tenemos ya tres Tesla P100 disponibles.

Nvidia Tesla P100 PCI-Express

La GPU Pascal P100 hace uso del silicio Pascal GP100, el silicio tope de gama de la compañía que en su versión completa ofrecerá 3840 CUDA Cores junto a 240 TMUs y viene acompañada de hasta 16 GB de memoria HBM2 junto a 8 controladoras de memoria de 512 bits, lo que se traduce en una interfaz de memoria de 4096 bits que daría un ancho de banda de 720 GB/s en el mejor de los casos. Este silicio también estará fabricado a una litografía de 16nm FinFet, es por ello que es de esperar una mejora drástica en el rendimiento disminuyendo aún más su consumo energético.

Nvidia Tesla P100 PCI-Express vs Nvidia Tesla P100 NVLINK

La Nvidia Tesla P100 ofrece un rendimiento simple de 9.3 TFLOPs (vs 10.6 Mod. NVLink) y doble de 4.7 TFLOPs (vs 5.3) donde el modelo de 16 GB de memoria HBM2 alcanza un ancho de banda de 720 GB/s mientras que el de 12 GB alcanza los 540 GB/s. En ambos casos, ambas GPUs se refrigeran de forma pasiva pese a que estamos ante un TDP de 250W. Ni una palabra en torno al precio de estos dos nuevos modelos.Nvidia Tesla P100 PCI-Express vs Nvidia Tesla P100 NVLINK especificaciones

Artículos relacionados