Control es capaz de exigir hasta 18.5 GB de memoria a nuestra tarjeta gráfica

A Control se le ha dado mucha coba en los últimos meses, un título Triple A de Remedy que le hemos dado cobertura al integrar la tecnología Nvidia RTX para la implementación del RayTracing en tiempo real junto a otras muchas características, lo que le convierte en un juego extremadamente exigente a nivel de recursos.

Si bien a día de hoy los 4K son puro humo, ya que a nivel de hardware nos es prácticamente imposible ejecutar cualquier juego moderno con gráficos Ultra 4K @ 60 FPS incluso aunque empleemos una Core i9-9900K junto a una Nvidia GeForce RTX 2080 Ti (y eso es sin añadir ni tan siquiera el RayTracing), las consolas de nueva generación ya están haciendo ruido prometiendo los 8K.

Control Nvidia RTX 740x416 0

Hoy podemos ver como esto será prácticamente imposible, ya que al ejecutar Control a una resolución 8K el juego demanda nada menos que 18.5 GB de memoria gráfica (VRAM) empleando la API DirectX 12 junto al RayTracing. Esto significa que la única tarjeta gráfica del mercado, del segmento de consumo, capaz de hacer frente a esta enorme cantidad de memoria es la Nvidia TITAN RTX con 24 GB de memoria GDDR6 y un precio recomendado de 2.720 euros. Justo por debajo tenemos la AMD Radeon VII, que ofrece un total de 16 GB de memoria HBM2.

Si nos vamos al mundo real, y pasamos de los 8K a unos más terrenales 4K, aún siguen los problemas, ya que con todos los ajustes y filtros activados al máximo, el juego consume "solo" 8.1 GB de memoria, que no está mal si tenemos una Nvidia GeForce GTX 2080 Ti, con 11 GB de memoria GDDR6, pero una más popular Nvidia GeForce RTX 2080 SUPER con 8 GB de memoria GDDR6 tendría problemas, lo que deja patente que aún estamos a mucha distancia no solo de disfrutar de los 8K, sino también de unos 4K "reales", es decir, no solo aumentar la resolución, sino activar todos los ajustes gráficos al máximo para disfrutar de una calidad gráfica sin precedentes. Ya no solo el sistema está limitado a nivel de potencia, sino también por la propia capacidad de memoria de las GPUs.

vía: TweakTown

Artículos relacionados