Categorías: Hardware

NVIDIA RTX 4090, ¿por qué los disipadores son tan grandes y pesados?

Ayer tuvimos la ocasión de ofreceros el unboxing de las NVIDIA RTX 4090 en varias de sus versiones, donde destacaba lógicamente la Founders Edition, principalmente porque es el diseño de referencia de la marca y siempre es interesante saber hasta donde han llegado comparada con la competencia AIB. Lo que vimos es que todos los modelos de RTX 4090 tienen unos disipadores enormes y pesados, y aunque no se pueden desvelar datos de rendimiento térmico, sí que hay que tener en cuenta un detalle importante: la información de los AIB para el diseño de los mismos era errónea,  los disipadores estaban creados para disipar 600W.

Como seguro recuerdas, los rumores afirmaban en su momento que las RTX 40 tendrían unos consumos máximos de 600W, por lo que todo el mundo se echó las manos a la cabeza. Esta información salió de los AIB, los cuales tuvieron los documentos técnicos antes que nadie y pudieron hacer prueba con aquellas BIOS modificadas de las RTX 3090 Ti para dicho consumo, y así poder probar empíricamente qué era necesario de cara a las RTX 40... Pero la cosa se torció y para bien.

NVIDIA RTX 4090, el disipador más grande jamás creado para una GPU de serie

Obviamos lógicamente las monstruosidades que han lanzado, por ejemplo, GIGABYTE o ASUS. Hablamos del diseño FE de NVIDIA por supuesto. Pues bien, la historia tiene su miga según se ha revelado, y es que todo ha ido a una velocidad inusitada, casi en el último segundo.

Resulta que NVIDIA había proyectado las RTX 40 en el nodo de Samsung a 8 nm como las RTX 30 y este como bien sabemos ni es muy denso, ni es muy eficiente. Esto es debido a que la capacidad de producción de los 5 nm de TSMC estaba ya reservada para AMD y Apple en sus distintas versiones del mismo, así que realmente los de Lisa Su tenían el mejor movimiento para llevarse esta guerra, pero entonces... Volvió TSMC.

Los taiwaneses tocaron a la puerta de NVIDIA para comentarles que podrían ofrecerles capacidad de producción en un proceso litográfico mejorado, pero a base de aflojar la cartera y por adelantado. NVIDIA no lo dudó, pero el problema es que los diseños térmicos de los chips ya estaban acabados con el nodo de Samsung a 8 nm y enviados a los AIB para que comenzasen a crear los nuevos disipadores de alto rendimiento y dimensiones.

Llegado a un acuerdo por el nodo TSMC 4N a 5 nm personalizado para NVIDIA, el resultado de las primeras obleas dejó un gran sabor de boca, puesto que no solo el rendimiento fue mejor del esperado, sino que la cantidad de chips útiles también era mayor. Por lo tanto y comparativamente hablando, el rendimiento y el consumo se iban a mejorar en una proporción de aproximadamente el 33% y claro, eso repercutía en los valores TGP finales. Por ello, de ahí se pasó de los 600 vatios a los 450 vatios

actuales y de los 420 vatios a los 320 vatios para la RTX 4080 16 GB y así sucesivamente.

El problema de llegar tarde y los disipadores

Aunque bajar el consumo era bien visto por todos, la realidad es que la inversión realizada por los AIB era mucho más alta que la de las RTX 30 y eso implicó en mayor cantidad de materiales, disipadores para las RTX 4090 y sus hermanas sobredimensionados y con un peso fuera de lógica. El resultado ya lo hemos visto, donde la única ventaja parece ser que todas las GPU serán realmente frescas y muy silenciosas.

Lo único malo es que los slots PCIe van a sufrir de lo lindo y que en casi el 100% de los casos se va a necesitar o bien un reinforce desde el bracket de la caja (como poco) o bien un sistema de soporte vertical que mantenga la GPU recta para evitar daños tanto a la misma como a la placa base.

Además, los AIB lógicamente no están contentos con este cambio, puesto que ellos no han sido beneficiados por el paso del Samsung a TSMC. Los costos de cada disipador se han disparado 10 dólares de media por encima de lo que deberían haber sido, eso sin contar el I+D para crearlos. Si estos costes se extrapolan a los millones de unidades vendidas por todo el mundo en los 18 o 24 meses de vida de estos modelos, hablamos de números más que importantes que podrían haber sido ahorrados de un inicio.

Ada Lovelace, ¿una arquitectura pensando en las limitaciones del nodo?

NVIDIA llegó tarde porque TSMC ofreció la solución a sus problemas también tarde, no había ya margen de maniobra para cambiar los disipadores de las RTX 4090 y por ello hemos visto tales monstruos. Esto nos deja una duda bastante importante. ¿NVIDIA diseñó Ada Lovelace pensando en las limitaciones técnicas de Samsung

y por eso apenas hay novedades en su arquitectura?

Hay que tener en cuenta la diferencia más que amplia en densidad, frecuencia y eficiencia, así que quizás los verdes plantearon un salto de rendimiento menor y apostaron todo al Ray Tracing y DLSS 3 sabiendo que sería el factor diferenciador con AMD a una posible igualdad de rendimiento. Supongo que nunca lo sabremos, pero como vimos en el artículo de la arquitectura del AD102 Full, el rendimiento se debía mucho más al nodo TSMC 4N que a los cambios propios implementados por NVIDIA, solo que ahora tenemos claro los por qués.

Protector Indefinido

Entradas recientes

Una encuesta de 11.000 personas revela cuánto pagarían por la RTX 4080

Tema controvertido como pocos y sin duda aquí lo hemos tratado. Guste o no guste,…

49 mins hace

¿Crees que eres bueno jugando a Minecraft? La IA de NVIDIA te ganaría

Jugar a videojuegos es algo que hacemos la mayoría de usuarios de PC y entre…

2 horas hace

Los envíos de pantallas caen hasta tocar su mínimo en una década

De nuevas malas noticias, otro mínimo que tocar y malos datos para todas las compañías…

3 horas hace

Samsung GDDR6W: chips de memoria con 32 Gb de capacidad

Samsung anunció sus nuevos chips de memoria GDDR6W. Como resumen rápido, respecto a los actuales…

4 horas hace

ASUS revela que el DLVR está desactivado en las CPU Intel Raptor Lake

Hace casi un año, se daba a conocer que los procesadores Intel Raptor Lake (Core…

5 horas hace

Amazon Graviton3E, así es la CPU que eclipsa a Intel, AMD y NVIDIA

Cuando se habla de superordenadores, grandes centros de datos y en general, informática de alto…

6 horas hace

Esta web usa cookies.