NVIDIA acertó con la RTX 3060 Ti GDDR6X: su versión normal no la alcanza ni con overclock

El problema de stock de la RTX 3060 Ti hizo a NVIDIA lanzar un nuevo modelo para cubrirla y de paso, refrescar la gama media de tarjetas gráficas a la espera de que la RTX 4060 haga acto de presencia. La nueva versión es prácticamente igual, pero tiene ligeros detalles, sobre el que destaca la inclusión de memoria GDDR6X. Esto lo cambia todo realmente, porque la tarjeta ha modificado algunos valores, como el consumo, y aparentemente debería ser igual de rápida que su predecesora, pero no. La RTX 3060 TI GDDR6X es más rápida y su versión normal GDDR6 casi la iguala o supera, pero con overclock.

Realmente las diferencias son pequeñas, puesto que aparte de la diferencia de velocidad en VRAM (14 Gbps vs 19 Gbps) y el consecuente ancho de banda de más (448 GB/s vs 608 GB/s), así como el consumo (200W vs 225W) el pilar principal es la reducción de frecuencias en Boost. ¿Cómo puede superar la nueva tarjeta gráfica a la antigua si sus núcleos son más lentos?

NVIDIA RTX 3060 Ti GDDR6X vs GDDR6, la memoria y sus problemas

ASUS TUF Gaming GeForce RTX 3060 Ti 8GB GDDR6X

Lo hemos repetido hasta la saciedad en los últimos dos años: el principal cuello de botella en la industria se está dando por el ancho de banda de la memoria y su latencia, tanto en CPU-RAM, como en GPU-VRAM. Por ello, añadir músculo en la memoria de vídeo a modo de velocidad y menor latencia tiene un impacto muy positivo en el rendimiento.

Esto es precisamente lo que han probado los compañeros de ithardware, los cuales han enfrentado a estas dos versiones para una misma GPU, donde los 1.755 MHz de la versión original frente a los 1.665 MHz de la versión con GDDR6X han sido algo totalmente secundario.

Nos vamos a centrar solamente en los datos con overclock, principalmente porque también muestran los datos sin él, aunque solo sea en dos juegos realmente.

Ni con overclock la tarjeta original puede superar a la nueva

NVIDIA-RTX-3060-Ti-GDDR6X-vs-GDDR6-con-overclock

Realmente las diferencias se mantienen, es decir, de stock, la RTX 3060 Ti GDDR6X es, por norma general, un pelo más rápida que la versión GDDR6 normal. Casi no llega a 2 FPS de promedio por encima, pero esto muestra que aun teniendo menos frecuencia en sus núcleos se puede conseguir un mejor rendimiento simplemente elevando la velocidad de la VRAM y por consiguiente, el ancho de banda entre esta y la GPU.

En Dying Light 2 y con overclock en ambas de por medio, lo que vemos son datos extremadamente parejos con 88,7 FPS para la versión GDDR6X frente a los 88,4 FPS de la original. Ambas tarjetas han sido overclockeadas por aire al máximo de sus posibilidades, y teniendo en cuenta que la escalabilidad de frecuencias en Shader es prácticamente clavada (1.935 MHz vs 1.920 MHz) las diferencias radican en los disipadores y la sostenibilidad de la temperatura, la cual empuja el Boost más o menos tiempo hacia arriba.

La versión TUF tiene ventaja aquí, y aunque ostenta 15 MHz menos bajo overclock (culpa del ASIC), es capaz de soportar más tiempo la frecuencia arriba, por lo que reduce la desventaja de rendimiento al mínimo. Pero aun así, no consigue batir a su hermana renovada. En The Medium sí que lo hace, pero por medio FPS realmente (70,1 FPS vs 69,6 FPS de promedio) dentro del margen de error realmente, cosa que sin overclock estaba por debajo por una diferencia de 0,6 FPS.

O lo que es igual, ha remontado algo más de 1 FPS, diferencia irrisoria para cualquier mortal que no compita por el último frame, pero que reafirma lo comentado más arriba.

El disipador marca las diferencias aquí

A mismo sistema de disipación veríamos cómo la RTX 3060 Ti GDDR6X es más rápida que la versión GDDR6, la comparativa no es perfecta en este caso, pero muestra el poder de una mejor VRAM frente al mismo chip y el ansia de mayor ancho de banda con el mínimo consumo y latencia que tiene NVIDIA con sus arquitecturas, algo que debería de cambiar en la siguiente al ser MCM. Esa dependencia cuesta muchos vatios y muchos euros de más, AMD lo comprendió hace dos generaciones, NVIDIA en este sentido va tarde, pero como se ha mostrado, lo tiene realmente claro.