El TBP de la GPU no equivale a la realidad, las RTX 4090 consumen menos

A la hora de comprar una nueva tarjeta gráfica, siempre tenemos que tener presentes sus especificaciones. Entre estas podemos ver el número de núcleos, cantidad de memoria, frecuencia a la que funciona la gráfica y también el consumo. Este último llega de una forma un tanto distinta porque indica el número de vatios como TBP, el cual es especificado por el fabricante. No obstante, a la hora de utilizar una RTX 4090 ya se ha comprobado que jugando no alcanza los 450W que dice su TBP, sino que su consumo es menor (aunque no demasiado). Por tanto, veamos las diferencias entre TBP y consumo real para ver que ocurre con la RTX 4090.

A la hora de comprar una tarjeta gráfica, algo muy importante que tenemos que tener en cuenta es la cantidad de pines que utiliza para su alimentación. Dependiendo de nuestra fuente, seremos capaces de hacer que funcione o de lo contrario nos tocará comprarnos una PSU mejor, por lo que siempre hay que tener en cuenta esto. Pero junto a esto, también hay que saber lo que consume una gráfica, dado que con los precios de la electricidad a día de hoy nos interesa. Es por ello, que cuanto vamos a ver el consumo de las gráficas actuales no podemos sino decir que es demasiado alto. Tenemos la RTX 4090, la GPU más potente hasta el momento, pero luego su precio y elevado consumo nos todo el interés por ella.

La RTX 4090 consume menos en juegos que lo que indica su TBP

Entendemos TBP como Total Board Power, el cual según su nombre nos indicaría el consumo total de la gráfica expresado como un máximo. Es decir, este actuaría más bien como el límite de vatios que puede llegar a consumir una determinada gráfica. Bajo esta definición, nos encontraríamos con gráfica que tienen un TBP muy alto, como la RTX 3090 Ti o la reciente RTX 4090. En ambos casos, hablamos de una cifra de 450W, pero ¿realmente consumen lo mismo?

Lo cierto es que no, según podemos ver en el gráfico proporcionado por Igor's Lab, el consumo real de la RTX 4090 en gaming es notablemente inferior al TBP que menciona. Y es que, mientras que la RTX 3090 Ti logra consumir 442.8W y se acerca a los 450W anunciados, con la RTX 4090 es otra historia. Hablamos de un consumo de 383.8W de media en 11 juegos con ray tracing activado sin DLSS y 4K, por lo que es una medida bastante efectiva de saber cuanto podría consumirnos la gráfica en este uso concreto. Puede que resulte poca la diferencia de consumo, pero hablamos de casi 60W menos, ya que se utiliza el 85.3% de los 450W mencionados.

Esto, por supuesto, es en frecuencias de fábrica y sin realizar overclock, pues entonces superaríamos fácilmente los 400W.  Lo curioso es que si aplicásemos la misma fórmula para la RTX 4080 de 16 GB, nos daría un total de 274W en lugar de los 320W que mencionan de TBP. Además, como podemos ver, el resto de gráficas tanto de NVIDIA como de AMD cumplen el valor del TBP.

Con DLSS/FSR el consumo disminuye únicamente en la RTX 4090

Ahora vamos con lo que más controversia podría generar y es el hecho de activar NVIDIA DLSS o AMD FSR en estas gráficas. Como muchos pensaran, es obvio que el consumo se reduzca al activar estas tecnologías de escalado, pues hacen que las GPU puedan generar más FPS. Aun así, como podemos ver, este no parece ser el caso, pues prácticamente todas las GPU han visto como su consumo es el mismo usando DLSS y FSR. Como una única excepción y por muy poco, la RTX 3090 Ti con DLSS ve rebajada esta cifra en 12W, ya que esta vez se sitúa en 430W. Sin embargo, el resto de gráficas no bajan e incluso hay casos como la RTX 3080 consumiendo más con DLSS.

Con estos resultados nos quedamos ante la duda de que puede ocurrir para que la RTX 4090 sea la única que ve su consumo reducirse en gran medida. Y es que, hablamos de 347.1W, casi 40W menos que la prueba anterior. Si realmente Igor hubiese dicho la CPU empleada, los títulos de los juegos o la cantidad de FPS, podría existir la posibilidad de usar un procesador menos potente que genere cuello de botella. Sin embargo, no se proporcionan estos datos y simplemente tenemos el consumo alcanzado a 4K. Por ello, hay que recordar que con DLSS se alivia la carga de procesamiento de las unidades FP32 para encargarla a los Tensor Cores.

Si a esto le sumamos la cuarta generación de sus Tensor Core en la NVIDIA RTX 4090 y la capacidad de emplear DLSS 3 aquí tenemos un mayor rendimiento y un menor consumo. Y es que, a una resolución 4K, la CPU no genera prácticamente nunca cuello de botella, siempre que hablemos de procesadores medianamente modernos y juegos actuales.