Radeon RX Vega 64 Air/Liquid: Fracaso épico con un consumo de hasta 516.24W

Siguen las filtraciones, pudiendo conocer el rendimiento de la AMD Radeon RX Vega 64 Liquid (refrigerada por agua) junto a la versión refrigerada por aire y, como se temía: AMD no sabe lo que significa eficiencia energética. Ya podemos decir oficialmente que en términos de FPS/W la gráfica es un fracaso sin precedentes.

Su ya de por sí el TDP de ambas GPUs revelaba que iba a existir un alto consumo (295W y 345W de forma respectiva), ante las primeras pruebas de rendimiento no hay ninguna sorpresa, bueno sí, que el consumo es incluso más elevado de lo esperado. El modelo refrigerado por aire ve como el silicio Vega llega a una frecuencia máxima de 1630 MHz, mientras que la refrigerada por agua alcanza los 1750 MHz, pero vayamos a lo interesante, el consumo.

Radeon RX Vega 64 Liquid & Radeon RX Vega 64 Air
Consumo

 

La Radeon RX Vega 64 por aire, en modo “Ahorro energético” consume 234.41W (sólo la GPU), en modo “Balanceado” jugando al Metro Redux consume 327.70W, en modo “Turbo” consume 329.93W y aumentando el Power Limit un 50% aumenta hasta los 340.40W.

Si hablamos de la Radeon RX Vega 64 Liquid, en el modo “Ahorro energético” consume 293.15W, en modo balanceado con el Metro Redux consume 380.93W, en “Turbo” consume 489.57W y, cuando queremos aumentar su rendimiento aumentando el Power Limit nos vamos a los 516.24W.

Rendimiento 3DMark

 

Rendimiento Juegos

 

Además del consumo, todo se confirma, a la hora de la verdad la GeForce GTX 1080 es mejor costando hasta 150 euros menos y consumiendo mucho menos, obvio.

vía: Videocardz

Artículos relacionados

  • anselmo

    LO QUE NECESITA AMD PARA VOLVER A SER COMPETENTE…

    https://www.youtube.com/watch?v=KyLQRjFGHsc

    • Según tu vídeo, entiendo que necesita billetes de 500 euros con los que comprar una gran cantidad de GeForce GTX 1080 y ponerles una pegatina suya en el ventilador, no?

      • IvAnVk

        han hackeao a Borja, malditos !!!

        • AMD es la que se ha hackeado a sí misma xDD

        • Altruist69

          No te cebes Borja, al menos lo intentan y dan algo de competencia.

      • anselmo

        Nope, lo que necesita son ingenieros competentes entre otras cosas. Como solo tienen bagatela vs nvidia, por desgracia no se lo pueden permitir y eso es lo maximo que han podido conseguir con sus limitados recursos.
        Al final el pato lo pagamos nosostros los compradores, como siempre. Ahora nvidia se volvera a subir a la parra con los precios en volta y otro año consecutivo con el monopolio absoluto.

        • Cuando una GTX 1060 ya te mueve todo en Ultra a 1080p… poco importa, sólo importará más allá de tales resoluciones que por ahora se ven lastrada por monitores a precios absurdos.

        • anselmo

          El problema es que cada vez mas gente juega a 1440p y las tv 4k han bajado mucho de precio. Por 1300€ tienes tv de 49″ con hdr de muy bena calidad y ahi una 1060 se hunde.

        • Para 1440p ya tienes la GTX 1080 100 euros más barata y consumiendo la mitad.

        • Albert1007

          1440p una 1080 se queda en unos 110fps dependiendo del juego, si quiere aprovechar 144 o 165 una 1080TI si o si

        • anselmo

          claro a eso iba yo hace cerca de 3 años que juego a 1440p/144hz siempre he necesitado sli . Pero ahora con la 1080ti es el primer año que juego en single y muchas veces no llego a mantenerlos solidos.

        • Albert1007

          Yo tenía monitor 1080p y 60hz, ahora he actualizado a 2k 144/ 165hz, y la 1070 se me queda bastante corta.

          Estoy debatiendo si pillar 1080 o 1080ti, porque lo siguiente que va a salir con casi total seguridad es pascal 2.0, ai supiese que era volta me esperaba, pero viendo el bodrio que han sacado amd, no creo que saquen volta, no lo necesitan.

        • anselmo

          yo iria a la 1080ti las hay por 711€ nuevas y de segunda 600 y pico, tira un 35% mas que la 1080.

          Mira te pongo algo interesante:

          En mi caso el sweet spot undervolt con max OC estable es de 2038 a 2025 MHz / 6003 MHz a 0.993 v . Tiene un consumo por debajo de los 200w y mejores temps vs a stock.

          Si la subo a 1.093 v solo gano 70-80 MHz que a la resolución que juego son menos de 2 fps de media, el consumo se dispara a mas de 300w y por ende las temps suben una media de 4-5 grados como poco.

          Por otro lado si quiero consumir el mínimo posible la pongo a 800 mv a 1750 MHz/6003 MHz y consume igual o menos que una 1070 pero rinde mas que una 1080 hasta las trancas de OC.

          Si no recuerdo mal un día probé bajar el core a 1450 MHz memos 5100 MHz es decir underclock súper bestia pase un heaven 4.0 a 1080 p ultra 8xAA y saque 124 fps de media, cifra a la cual las 1080 llegaban subidas a 2100 MHz y memos a tope.
          Con lo cual baje 500 MHz al core y casi 1 GHz las memos ( respecto a los valores de casa ) para rendir igual o más que una 1080 súper oceadisima pero consumiendo menos de 120w. La 1080 ti es una puta obra maestra de la ingeniería.

          Aqui el ejemplo:

          http://i.imgur.com/4rl4tHb.png
          El consumo que me marcaba el inspector era entre 105 y 115W en el bench a esas frecuencias y voltajes.

          Ejemplo a 2025mhz/6003mhz una hora de sniper elite 4, buenas temps, consumo bajo para el oc aplicado y rendimiento cojonudo.
          https://www.youtube.com/watch?v=NC2dpc3u9CA

          Tuve sli de 1080ti pero mira lo que se necesita en un heaven 4k ultra para pasar de los 60 fps

          http://i.imgur.com/BtflvCw.jpg

        • Flauros

          incluso una 1070 xD

        • Luis

          A pesar de sus limitados recursos lograron llegar hasta ahí, ya que no es nada de fácil diseñar gpus. con el dolor de mi alma me parece que tendré que cambiarme a nvidia por una 1080ti. esto digo habiendo tenido una hd 4670, hd 7850, hd 7870, hd 7990 y ahora la ultima r9 295 x2

      • Flauros

        No pueden, la patente la tiene una compañia Española.

    • vinsukarma

      los que de verdad manejan pasta huyen de los billetes de 500€ como de la peste :-d

    • Brigadier Pepis

      Joder que buena calidad de fotocopiado tienen esos billetes :O

      • anselmo

        coño como que son de verdad

        • Renton

          Y qué vendes, heroína? Porque es ilegal cobrar esas cantidades en efectivo jajaja

        • anselmo

          Me gano la vida honestamente

        • Renton

          No serás político? XD

        • Jose

          Si vendiese heroina tendria muchos euros y billetes de cinco

        • Sizoujka

          Jose si sabe!!!

    • Altruist69

      Los Sims xD

  • Menague

    En invierno me monto dos de estas, todo a 4k y con la habitación a 30º.

    Game OVER Nvidia.

    • Joel

      Y en verano?

      • Menague

        en el próximo verano ya las tendría vendidas, seguro que sacarían el “REFRITO” consumiendo la mitad xD

        • Joel

          Jajajajajaja

    • Mateo

      Eh, pero tiene que ser modular o semi modular

    • Riwer

      Pues no lo digas muy de coña que:

      http://i.imgur.com/gWQYdy2.png

      • Brigadier Pepis

        Ahí falta “Tacens 1000W Ready”.

    • Rfa1987

      que comience el juego ajjaja

    • Fedir

      Pero una solo para la gráfica eh 😂
      Otra mas para el resto del equipo

  • Félix García

    De las temperaturas con el disipador de turbina y ese consumo, mejor no hablar…

  • phenom

    Madre mia ….vamos esperar a amd para esto…creo k va siend hora de cambiar de marca

  • yeye2

    no tiene explicación, tiene que haber un problema de drivers o algo, por que de lo contrario hablariamos de un producto que roza lo ridiculo…

    • CHIAGAMER

      Espero que tengas razón por que si no AMD de esta no levanta cabeza. Creo que se centraron demasiado en las CPU

      • vmo

        Pues en CPU prefiero yo. Ha puesto contra las cuerdas a Intel.

      • Forinfoncio Martinez

        A AMD la va a salvar los mineros, por suerte para todos nosotros.

        • hubyto

          con ese consumo los mineros no van ni de risas ya que no se pueden usar bios customs segun he leido

        • aRMaGGeDoN

          no creas, si minean lo que decian que iban a minear igual es la solucion para que dejen de vaciar el stock de gpus. Decian que seria capaz de sacar unos 100mh/s mientras que la rx480 saca unos 24mh/s, o sea minea como 4-rx480 por “solo” 300w mientras que si montases 4 480 consumirias mas de 600w.

          quizas asi los mineros se centren en este trozo invervible de gpu y dejen de inflar los precios de las puñeteras graficas, que a dia de hoy añado comprar una es un puto robo

        • hubyto

          hace 1 dia o menos ya confirmaron que no pasaba de 70mh/s y las 480/580 etc estan modificadas por bios para bajar consumo pero la gama Vega no es possible eso

    • Pablo Negrín Brito

      Totalmente de acuerdo, algo no cuadra. Pa mi que las van a vender a 100€.

    • Flauros

      si te has dado cuenta hasta tu….

  • Alejandro Alvarez Paz

    y yo esperando un año para esto??? ya no se si pillar 1080 y le den al freesync, oju oju

    • yeye2

      para que quieres fressync? sabias que la mayoria de monitores apenas vale para nada por el rango ridiculo de frecuencias donde esta activado.

      nvidia tienes fast sync que es lo mismo y apenas mete input lag y sin gastarte un duro en gsync ni freesync

      • Riwer

        Espero que no te caiga la que a mi me cayó por decir algo parecido xD

        • yeye2

          y tengo conste que tengo un monitor gsync, y aunque en general vaya “mejor” que fastsync no hace falta . Lo unico por lo que vale la pena un monitor gsync es por que suelen montar un modo “anti-blur / ghosting” que evita que se vea borroso cuando giras muy rapido en juegos, los asus de 27 creo que lo tienen.

        • Sergio Marquez

          Y a mi que me cae si digo que no uso ni freesync ni fast sync ni vsync ni pollassync, sino que prefiero jugar a +100fps y disfrutar de la vida con una experiencia 100% fluida?

          A mi las tonterias de los xxxsync sólo me parecen interesantes cuando juegas a 30-45fps, pero es que antes de jugar a esas tasas cierro el juego vaya.

        • yeye2

          hombre, evitas el tearing que incluso a 200fps vas a tener si no casas los fps con los Hz de la pantalla, la experiencia de tener los HZ a la par es muchisimo mas fluida

        • Riwer

          Eso depende más de como esté programado el juego.
          Hay juegos donde no vas a ver nada de tearing sin vsync ni ningun tipo de sincronización.
          En otros (aunque minoria) hazlo por tu salud visual xD

        • Sergio Marquez

          No he visto un solo tearing en más de 3 años, ya te lo digo yo. 144hz y +80fps en pubg/+100 en bf1/+144 en overwatch/csgo.

          Casi nunca he usado ningun tipo de vsync, a excepcoon de csgo durante un par de semanas por un bug rarisimo que me petardeaba el ratón si subia de 160fps O_o

        • Jorge Delgado

          Eso no me lo creo. Que no notes el tearing….

        • Riwer

          Lo corroboro.

          A mi me da que muchos llevareis con vsync activado (o tecnica alternativa) desde hace 5 años, y ni habeis probado a jugar sin.

          Coger cualquier juego moderno sin activar nada, que no vais a ver tearing.

        • Jorge Delgado

          Yo como norma lo tengo desactivado, y cuando se nota en algún juego ( porque se nota) lo activo.
          Pero no puedes decir que de hace 5 años no se nota porque es mentira.

        • Riwer

          Depende de lo que juegues, yo hace 5 años que no lo activo para nada y no lo noto ni un minimo.

        • Jorge Delgado

          Que más dará que sea moderno…lo que hay que escuchar…

        • Riwer

          Pues da que si un juego está bien programado los frames no se desincronizan tal vez?

          Hablais sin saber y encima vaciliando, lo que hay que leer….

        • Jorge Delgado

          Que dices anda

        • Riwer

          Pues las cosas como son, al contrario que tú.
          Tan dificil te es argumentar las cosas?

        • Jorge Delgado

          Argumenta tu que solo dices que no se nota y te repito que es MENTIRA

        • Jorge Delgado

          Jajajaja lo que hay que oír…
          Tu si que hablas sin tener ni puta idea. Y con esto no quiero decir que yo sepa mucho.
          Mira un juego bien hecho se nota en que mejora el rendimiento y en qué está mejor optimizado pero no tiene nada que ver que se sincronicen los frames o no, lee un poco o mírate algún vídeo del Youtube de alguien competente y te enteras

        • Riwer

          Menudo cuñado estás hecho.

          Tu no sabes ni que en un motor grafico se programa en los loops de framerate verdad?

          En fin, tipico lumbreras pasandose de listo para variar

        • Jorge Delgado

          Dime, que juegos has programado???
          A ver si vas a tener tu la solución a problemas de gráficos como el tearing y están estos tontos de Nvidia y AMD sacando sistemas de sincronización ya sea vía software o vía hardware y tenemos aquí al Programador de los programadores que tiene la puta solución.
          No me toques los cojones

        • Riwer

          Es decir, no tienes ni puta idea de lo que hablas, te tragas hasta la garganta el marketing haciendote creer que tienes una necesidad que no tienes, y me dices que no te toques los cojones?

          Hay que ser payaso.
          ¿Que pasa, que has puesto algun juego sin vsync y al ver que no tienes tearing igualmente te has quedado con cara de imbécil y vienes a patalear?

          PD: Soy programador de software, programo juegos como proyectos personales cuando me da, pero eso dudo que te importe. Y para tu información esto es un “problema” que está mas que contemplado en los motores graficos modernos y no tan modernos.

        • Jorge Delgado

          Bueno
          Pues explícamelo

        • Jorge Delgado

          No he puesto ningún juego porque estoy de vacaciones así que no tengo pc hasta septiembre.
          Pero cuéntame por programación como te comunicas con el monitor. O cómo lo sincronizas mediante programa.
          A ver que conclusión sacamos

        • Riwer

          Ok, empezaré disculpandome contigo por las formas, porque han sido excesivas.

          Cuando tu programas, lo haces en el loop de frames, es decir, que si el juego funcion a 60fps, la programación del loop de frames va a ejecutarse tambien 60 veces en un segundo. (se controlan las iteraciones por condiciones y activadores).

          A priori los scripts (algoritmos puros y duros) no afectan al renderizado gráfico de un frame, pero no sólo hay un loop de frames, hay varios (pre-frame, frame, post-frame) (de hecho mas de 3) Y realizar actualizaciones gráficas, de efectos, de assets etc si pueden producir que un frame se renderice con retraso.

          Un monitor no corta un frame físicamente, no es la tasa de refresco la que corta los frames, es una desincronización de frames que realiza la gráfica al montarlos y enviarlos al monitor. (Y ahi el monitor si los lee como puede)
          La tasa por su cuenta puede hacerlo tambien (moviendo por ejemplo la ventana de un video en el sistema operativo mientras se reproduce produce tearing), pero aun asi, no deja de ser cosa de la gráfica y el reproductor de video. (Se puede programar por ejemplo un reproductor de video que te permita hacerlo sin producir tearing).

          Si echas un ojo a que es en si el tearing:
          https://en.wikipedia.org/wiki/Screen_tearing

          Veras que:

          Prevention:

          Ways to prevent video tearing depend on the display device and video card technology, software in use, and the nature of the video material. The most common solution is to use multiple buffering.

          Most systems use multiple buffering and some means of synchronization of display and video memory refresh cycles.

          Tambien influye si ejecutas por ejemplo en fullscreen (capturada), o borderless window. La programación que controla como se envian los frames por el buffer suele depender más de la programación del motor gráfico (que es el que usa nativamente el driver o api gráfico), pero tambien, cualquier juego triple A, o usa sus propios motores (optimizando esto) o modifican el codigo fuente (el cual se obtiene con la licencia) de Unreal Engine o CryEngine por ejemplo.

          Yo no te voy a decir como lo hace cada desarrollador, porque eso evidentemente no lo se (cada uno lo hará de una manera diferente).

          Pero lo que si tiene que saber, es que en modo ventana o ventana completa (la mayoria de juegos modernos tratan el fullscreen como ventana compelta) NO vas a tener screen tearing (con vsync off) porque Windows activa el triple buffer en todo lo que no sea pantalla completa.

          Es decir, que la unica opcion de tener tearing sin vsync es en pantalla completa (capturada), y dependiendo de como esté desarrollado el juego.

        • Jorge Delgado

          También te pido disculpas si te ha molestado algo, pero es difícil de entender que alguien te diga que no existe un problema cuando hay muchas soluciones para el mismo.
          Yo uso modo ventana pantalla completa por que uso el lightpack, si no es de este modo el programa no me sabe reconocer los colores de los bordes para sacarlos por los les.
          En todo caso eso me suena al capado que se hace en consolas a 30 o 60 frames, que no presenta tearing lógicamente pero a mi entender sigue siendo una forma de vsync… No sé pero si tantos problemas existen con ese tema, y tanta variedad de soluciones hay será porque hacer lo que tú dices supone mermar el rendimiento pues semejante a lo que es el vsync.
          Pero vamos…
          Hasta donde se o se capa la tasa de frames como hace el vsync y la gráfica no escanea una nueva imagen hasta que no se ha descargado la anterior al monitor ( de ahí el imput lag) o se usan otras soluciones pero eso de hacerlo por programación y sin que influya en el rendimiento… Entonces porque sigue la opción de vsync si no hace falta?

        • Riwer

          El vsync va a desaparecer. El vsync es una solución antigua que mete un input lag del copón.

          Ahora mismo la mejor opcion en terminos de latencia es jugar a pantalla completa (capturada) y es donde te expones al tearing segun el juego.
          Si juegas a ventana completa (supongo que es a lo que te refieres con “ventana pantalla completa”) puedes pasar totalmente del vsync, que como te digo Windows activa el triple buffer y no vas a tener tearing.

          Este articulo es muy completo y creo que te sacará mas de una duda:
          http://www.anandtech.com/show/2794/2

          Pero yo me quedaria con esto:

          In other words, with triple buffering we get the same high actual performance and similar decreased input lag of a vsync disabled setup while achieving the visual quality and smoothness of leaving vsync enabled.

          The software is still drawing the entire time behind the scenes on the two back buffers when triple buffering. This means that when the front buffer swap happens, unlike with double buffering and vsync, we don’t have artificial delay. And unlike with double buffering without vsync, once we start sending a fully rendered frame to the monitor, we don’t switch to another frame in the middle.

          Actualmente el fast sync y su equivalente de AMD refuerzan este resultado en cualquier tipo de escenario (ya que es un poco a la fuerza) tambien con un retraso artificial casi impercetible (casi).

          El Gsync y Freesync hacen mas cosas que sincronizar los frames. Es que te cambian fisicamente la tasa de resfresco del monitor. Esto ya no es “vamos a traducir nuestros idiomas” es ya hablar el mismo idioma, y de paso corriges efectos secundarios como el motion blur (que igualmente muchisimos monitores modernos lo hacen por su cuenta).

          Si me preguntas a mi, son pijadas innecesarias, pero tampoco es falso que algo hacen. Aunque aun con freesync metes input lag, aunque sea minimo, metes.

          El caso es que es el tearing puro y duro (ver molestos frames cortados) hoy dia no los vas a ver sin vsync en modo borderless window. Y no vale la pena atarse a ninguna marca con freesync o gsync por lo que ofrecen.

        • Jorge Delgado

          Creo que solo merece la pena el gsync o freesync cuando tienes mucha variación de frames o caídas por el tipo de juego y cuando eres muy exigente. De todas formas viendo lo que se paga por un móvil hoy día que dura un par de años, comprar un buen monitor que te dure 10 no es mala inversión.
          Yo llevo casi 4 con uno de 170 euros hasta que me decida por comprar EL monitor y ya no cambiarlo hasta dentro de 15 años con un salto generacional gordo.
          Si me compro un 4k 144hz pues espero que me dure muchos muchos años. Pues no veré 8k ni 8k 144hz o similares en al menos una década.
          Osea que la conclusión es que en ventana completa sin bordes, no en pantalla completa no tenemos tearing?

        • Jorge Delgado

          Venga dale caña a la explicación.
          Cuáles son tus juegos?

        • Sergio Marquez

          Cero. Desde hace años.

          Cómo vas a notar tearing en frames que desaparecen en milésimas de segundo? Si vas a pocos FPS se notan porque ese frame cortado está durante más tiempo en la pantalla, pero a +100fps?

        • Jorge Delgado

          Acojonante….

        • Jorge Delgado

          Precisamente necesitas más de 60 fotogramas para que el vsync no te vale el pc a 30.
          Que en determinados juegos no lo notes no quiere decir que no exista ni mucho menos.
          El tearing aparece independiente de los fotogramas que de tu gráfica, cuando la gráfica pasa la imagen a tu monitor si da la casualidad de que pilla entre escaneo y escaneo se va a ofrecer un frame en una posición y otra en otra posición, de manera que se va a ver ese corte en la pantalla.
          Posiblemente si juegas con un monitor de 144hz y alcanzas más de 100 se repitan imágenes en el monitor por duplicado y notes menos el efecto porque todo sucede más deprisa.
          Pero si tienes un monitor 60 Hz da igual que el juego sea de ahora y que gráfica tengas. Si se muestra una imagen en el monitor entre escaneo y escaneo hay tearing.

        • Sergio Marquez

          Tengo un monitor de 144hz (Benq XL2411Z) e intento mantenerme por encima de los 100fps en todos mis juegos, aunque tenga que bajar calidad de gráficos (Siempre fullhd)

          Ya te digo que desde que dejé la gtx660 y la r9 270x no recuerdo haber vuelto a ver nada de tearing, y nunca uso vsync y similares.

        • Jorge Delgado

          En frecuencias más altas es lógico que no lo aprecies, pero no quiere decir que no exista. De todas formas si tu monitor sacas mas fotogramas de los que da la gráfica pues…

        • Riwer

          Aqui uno que siempre tiene el framerate desbloqueado y de hecho, no recuerdo ver tearing desde hace la tira.

          Como suelo decir, un juego bien programado no necesita de sincronizacion de frames.

      • Alejandro Alvarez Paz

        tengo monitor freesync era por aprovechar, la tecnología, bueno esperaremos haber que pasa… lo mismo es cosa de drivers por ese rendimiento.

      • Depende de que resolución juegues, pq 2k y 4k es una timada y lo ideal ahora mismo es full hd 144 hz

        • yeye2

          bueno yo voy a 3K 21.9 y 100hz y no me quejo, yo diria que lo ideal es ya 2K a 100-144hz, fullhd ya lo empiezan a mover bien una gama baja de gpu

        • El problema del 2k es que normalmente los monitores son de mas de 24 pulgadas por lo que la ganancia de densidad es muy poca en comparación con la perdida de rendimiento.

        • yeye2

          aunque la densidad siga siendo “poca” el cambio es bastante importante en calidad de imagen, y 24″ se empieza a quedar pequeño, hay un cierto repunte a ir a por 27″, y en esas pulgadas y tan cerca fullHD es “pixelandia”

        • Yo no comparto tu visión, actualmente lo único que realmente notáramos diferencia real del cambio de un full hd seria con 4k y a las gráficas top les cuesta aun así.
          Hoy en día lo mas rentable es full hd 144hz, tienes buena calidad de imagen, no pierdes fps y no te tienes que desembolsar mucho para obtener mas de 60 fps.

        • Riwer

          1080p en 22″ = 100ppp
          2k en 22″ = 133ppp
          4k en 22″ = 200pp

          2k en 27″ = 108ppp

          Un +33% en el mismo tamaño realmente poco no es. No es el doble como con 4k pero es muy notable.

          Yo por ejemplo, he pasado de 1080p a 2k, y de 22″ a 27″.
          Se puede decir que practicamente he contrarrestado la densidad de pixeles.
          Pero he ganado mucho en tamaño de pantalla, y aun asi, pongo el monitor algo más lejos porque es más grande, por loque la nitidez real aumenta bastante.

          Respecto al “1080p 144Hz”, pierdes fps, porque tienes que ir a 144fps.
          Yo, en la epoca en la que estamos, pondria el target en el siguiente escalón. 2k 144Hz.

          Ahora mismo una RX580 o GTX1060de 6GB son suficientes para 2k 60fps (y lo digo siendo mi caso).
          contando que un monitor es una inversión de futuro, una GTX 2060 o 3060, le iria sacando todo el potencial.

          Un monitor de 27″ en 1080p, si me parece excesivamente deficiente en definición.
          Que si bien no deja de ser cuestion de opiniones y preferencias, el detalle de invesión de futuro es algo que se deberia tener presente.

        • Yo solo digo que los 2k suelen ser de 27 pulgadas y que la diferencia en densidad con un full hd de 24 no es mucha, en cambio pierdes rendimiento.
          El 2k esta en tierra de nadie, es un termino medio entre full hd y 4k.
          Yo prefiero full hd con un panel bueno y alcanzar los 144fps.

        • nulldotzero

          Tengo monitor 24″ 1920×1200 60Hz y quiero pillarme uno de 144Hz. Puedo elegir entre 2K 24″ y 2K 27″. ¿Quieres decir que es mejor ir a por el de 24″?

        • Depende de tus necesidades, pero 24 pulgadas es mejor en términos densidad de pixeles y es el tamaño ideal, no es muy grande ni tampoco pequeño.
          27 pulgadas lo veo incomodo por ejemplo para jugar en shooters.

        • Jorge Delgado

          Eso depende del fondo de tu escritorio. Yo tengo 90 de fondo…otros tienen 60. Así que …. No se…yo esperaría un año y pico y 4k 143hz

        • yeye2

          personalmente de un 24 FullHD a un 27 2K el cambio fue enorme, los dientes de sierra en los juegos desaparecieron sin tener que poner filtros. Sin embargo de 2K a 4K en 27″ a penas note una gran diferencia.

        • Yo por ejemplo tenia una 480 que la vendi, me pille un monitor freesync 24 pulgadas 144hz y muy contento, pq a lo que yo juego principalmente es a shooters. 27 pulgadas para shooters como Csgo lo veo demasiado grande y el 2k no hará mas que quitarme fps.
          Por lo tanto, también depende a que tipos de juegos juegues o a lo que te dediques, si eres diseñador gráfico lo mejor es 4k, pero en términos calidad-precio es innegable que la mejor opción hoy en día es full hd 144hz entre las opciones de full hd, 2k o 4k

        • yeye2

          vale…. tu no hablas de calidad y de mejor imagen, si no de experiencia de juego, en ese caso, mejor 1080p y 144hz que 2K o 4K a secas. El tema es que ya hay gente jugando a 2K a 144 y a 3k a 100hz que tambien valen, aunque necesitas mucho equipo, y por eso estoy contigo en que mejor quedarse en fullhd 144hz

        • mascre

          2k es una timada? pues es lo mejor que podido hacer comprarme un monitor 2k con g-syng 144hz dices que el salto esta en 4k ,lo veo normal si fueras a jugar en un monitor muy grande pero en un 27” 2k vas sobrado suelo jugar a una media de 120 fps a casi todos los juegos con todo al maximo con una 1080 y la ventaja es que el antialiasing desactivado ni se ven los dientes de sierra.

          Para 4k fluidos aun quedan un par de generaciones de gráficas y insisto que en monitores de 27” la diferencia entre 2k y 4k es ínfima

        • Si te sobra el dinero si, veo un despropósito jugar en 2k con una 1080, pudiendo hacerlo con una pantalla full hd 144hz con una 1070

        • mascre

          Que tu lo veas un desproposito no quiere decir que lo sea o sea una estafa como dices y la calidad visua tampoco es que sea la misma .

        • Y la perdida de rendimiento vs la ganancia visual?
          2k 144hz inviertes a futuro, pero yo lo tengo claro, yo me he pillado un full hd 144hz y cuando sea mas normal pasarme directamente al 4k, ahorrándome unos eurillos.

        • mascre

          yo no tengo perdida de rendimiento lo muevo prácticamente todo a 100-120fps vale no llego a las 144 pero he probado bajando gráficos para llegar y no noto la diferencia

          supongo que el 4k lo jugaras en un 32” o mas porque no se para que quieres tanta densidad de pixeles en un 27” o menos jugandolo a 1-2 metros de distancia .

          hablas de no sacrificar rendimiento y de en un futuro jugar a 4k ahorrandote un dinero .

          Pero el 2k en unos años (no lo se) estara mas tirado y con una gráfica gama media alta lo moverá todo sobrado, ponte un panel de 27” 2k y 4k a ver si notas diferencias.

        • Riwer

          Es que cuando llegue el 4k va a pasar lo mismo.

          Las graficas de gama media sudaran sangre para mantener el 4k 60-70fps de media (ojo, de media que es lo que importa) y muchos te diran que mejor 2k y 144hz.

          Cosa que es literalmente trasladar en el tiempo hacia el futuro su argumento.
          El caso es que hoy juegas mejor a 2k con la gama media muchisimo mejor de lo que jugaras a 4k con la gama media dentro de 2 generaciones.

          Y si precisamente priorizas la tasa de refresco, yo no veria en absoluto como una opción saltar a 4k/60fps

        • Yo ya te he dicho entre full hd , 2k y 4k, me quedo con el full hd, hoy en día

      • Jorge Delgado

        Si quieres jugar a 60 Hz con freesync que problema hay?
        Hay monitores 21/9 a 2k que tienen freesync a 60 Hz y es más que suficiente para una buena experiencia sin coste añadido como el gsync

    • Picantium

      Si el monitor no es freesync FLC por debajo de 40fps es como si no tuvieras nada…

      • Riwer

        Igualmente no creo que nadie se plantee hoy la compra de una gráfica para jugar a 40fps o menos.

    • Ivynator98

      980 ti.

    • hubyto

      usan las vega freesync2 y aun no hay, solo samsung ha anunciado 3 modelos y el mas barato son 600€

    • Joel

      Prueba el fast sync de nvidia

  • Mateo

    A este paso puedo seguir ahorrando otro año para la 1080ti y seguirá por delante de AMD 😂

    • Jose

      Porfabor un poco respecto la solucion AMD Vega compite con la GTX 1050ti y la supera con creses que os importa el consumo si la malloria teneis la luz cogida de la farola

  • Sergio Ordóñez García

    El hype train de Vega se ha estrellado… dejando a AMD como víctima mortal xD
    https://uploads.disquscdn.com/images/0bcbafebb3152324c1d09467b0f07f5cd9abc50a2bbcf0babc7d766725a68906.png

    • Riwer

      En realidad solo se ha saltado esta parada, sigue rumbo a Navi.

      Otro tema es cuantos han saltado fuera xD

  • Picantium
  • anselmo

    La rx 64 aio en el btf1 rindiendo como la 1080ti?… sera un fake imagino. Hay que coger esos resultados con pinzas.

    • Sergio Ordóñez García

      Como la 1080ti founders, luego si las custom rinden más ahí no se tiene en cuenta

      • anselmo

        Ya vi que era la FE pero esta se suele poner a 1900mhz de casa con el boost memos 5500mhz que es un 30-35% mas rapida que la 1080fe ahi ni es lo que se refleja. La 1080 saca 99 fps, la 1080ti 121, deberia andar en los 130 como poco. Bueno de hecho con algo de oc a 1440p con drivers de abril en online 64 jugadores yo andaba en 144fps capado con la 1080ti msi gaming x con alguna bajada a 130 pero grabando.

        https://www.youtube.com/watch?v=6-MQxqemyvk&t=5s

    • zapot

      y lo mas importante, con los drivers buenos o con los truchos, yha avisaron de que habría mucha diferencia entre unos y otros…

    • Sergio Marquez

      Está en modo DX12. Aparte, puede ser simplemente un juego bien optimizado para AMD, recuerda que hay juegos como Hitman que una triste 480 superaba a la 1070

  • Riwer

    Vamos, que quitando BF1 donde las AMD van muy bien (por algo es un juego patrocinado por AMD), pierde en todos y cada uno de los juegos.

    Y hablando de la Liquid vs la GTX1080 FE, (incluyendo altas resoluciones (HBM2? estas ahi?) y DX12 (que Pascal no era un refrito de Maxwell?)

    Rip Vega.

    A por cierto, donde estan esos fps mínimos tan altos de los que se sacaba pecho?
    En fin, lo que ya se suponia.

  • Pingback: Título del sitio()

  • Angie__X

    el cubo que viene con las vega es en realidad una fuente de alimentacion, qeu no os habeis enterao….jajajaa

    • Incluye uranio enriquecido para usarse de refuerzo en fuentes Mars Gaming.

  • Marra Mi Au

    En AMD la han cagado , a partir de ahora tendremos 2 o 3 articulos diarios poniendo vega a parir.

    • Angie__X

      naaah…comenzara el hype con navi y vuelta a empezar….jajaja

      • Marra Mi Au

        Pobre borja, al final traga con intel ¬ nvidia en su siguiente portatil.

        • Como ahora… esa es la ventaja, cuando uno compra, mira pros/contra y compra lo mejor que haya en ese mercado indiferentemente de la marca sisisi

        • Frank Reings

          Como debe ser, es que sin animo de ofender comprarse estas gráficas a precios veremos si no mas elevados, con un consumo superior y rindiendo lo mismo o en muchos casos incluso menos, es una solemne tontería, que cada cual es libre de comprar lo que quiera, pero vaya por sentido común eliges lo que rinda mejor, con menor consumo, mejor precio y esta claro que estas VEGA están lejos de todo eso, lo cual ya se aleja del sentido comun y pasa al fanboyismo todo lo respetable que se quiera pero como digo a años luz del sentido común.

  • Ivan Perez Muradas

    Lo peor de esto es que perdemos la oportunidad de meter presión a Nvidia,que viendo su superioridad,no tendrá prisa para mejorar notablemente sus equipos y ajustar los precios.

    A esperar sentados,el retraso de los 2 monitores 4k 144hz,más que por falta de componentes internos,yo creo que es porque saben que la próxima generación que pueda medio mover esos monitores no saldrá hasta el año que viene…

    Menuda espera….si aun estamos en verano joder…

  • XenoPhenom

    Pero qué cojones ha hecho AMD. No entiendo la estrategia de sacar semejante mierda al mercado.

  • Heiseno

    Ostris, 500W. Menudas fugas y eso que usan hbm que sino se plantaban en 600W.

  • WeyStor

    Necesitaremos un cuad sli de tacens de 1000w.;)

  • raul

    Con 3 tacens de 500w en sli me da?

  • Ivan Mike

    vaya grafica de palo, radeon DEAD

  • yeye2

    mañana tendremos la noticia de que nvidia volta se retrasa a 2025, por que madremia, se van a hinchar a vender gtx1080 estas navidades,

  • vmo

    AMD menuda decepción con la gama alta. Fury decepcionó, y pensando uno que se iban a poner las pilas, viene y llega esta “basura”. Creo que deberían dejarse de tanto hbm y empezar a hacer bien la arquitectura.

  • Amdero con 1070

    En BF1 va extrañamente bien

    • yeye2

      cogelo con pinzas, el BF1 en Dx12 es un desproposito, tanto con amd como con nvidia, dx11 va muchisimo mejor

      • Torso Cage

        BF1 dx12 es la fiesta del stutering

    • Riwer

      Aparte de lo que te han dicho es un juego proAMD

  • AMDivia
  • Jimmy

    en pocas palabras NCU es peor que GCN, que alguien le preste a AMD algun ingeniero de sofware para arreglar ese driver que se ve que les hace falta

    • Riwer

      Vega es GCN. “NCU” es el nombre de marketing de CGN 5.

      Y por mucha actualizacion de driver que saquen, no se arregla una arquitectura (aunque si ganaran algo de rendimiento como es logico y normal)

  • Amdero con 1070

    Vaya despropósito de GPU, han superado la decepción de las Fury

  • vinsukarma

    Antes de escupir contra viento mejor esperar un tiempo a ver si va a resultar que es un problema de drivers

    • Riwer

      – La Vega ya se ha retrasado lo suficiente como para que incluso AMD saliera a perdir disculpas y dar una excusa
      – La Vega frontier lleva ya tiempo en el mercado con driver propio (antes de las diapositivas de Vega Gaming)

      Si realmente hubiera un problema de drivers crees que AMD hubiera hecho diapositivas asi?
      Hubieran retrasado mas Vega por la chapuza total que supone.
      Y total, encima mintiendo diciendo que sus fps minimos eran mejores.

      • vinsukarma

        Lo que no sé cómo demonios el mundo latino no dirige con mano de hierro el mercado de la electrónica de computación con tanto sobrado que hay :- , en serio, no sé como no estamos en la cúspide

        • Riwer

          Perdóneme usted pues por hacer alusión a la lógica básica y al sentido común.

        • vinsukarma

          Apelando a esa lógica básica que usted comenta tal vez debería dirigirse al departamento competente de AMD para que pueda usted iluminarles con su sabiduría, probablemente se haya dado usted cuenta de algún detalle que los ingenieros han pasado por alto

        • Riwer

          Es mas sencillo que eso. Simplemente no tienen medios/dinero para más, junto a un departamento de marketing y merchandising que está despilfarrando xD

        • loki

          en medios incluyes las mentes pensantes que crearon esta chapuza de gráfica?

        • jarkas

          Tu ego sí que está en la cúspide

      • loki

        que bajará más las acciones un retraso por triplicado en su lanzamiento o este en beta… hay q pagar las deudas xDD y los silicios fuera de los estantes!.ajsajsajasj

  • bunbury79

    Eso pasa por anunciar a bombo y platillo que las nuevas AMD se iban a cargar a Nvidia, que si iban a ser más baratas, más bonitas y más buenas. Al final estamos como siempre, nvidia sin competencia real que es lo que los usuarios demandamos para unos mejores precios y productos.

    Está bien al menos que los titulares en la web reflegen el fracaso que supone van a ser estas gráficas y así dejemos ver las vendidas de humo que se han hecho.

    Ya sólo falta que cuando salga el nuevo iPhone y sea un record de ventas, también se anuncie como tal y no en plan Mundo Deportivo cuando pierde el Barsa y de portada hablan de cualquier otro pego.

    • Riwer

      No todo es malo.
      Hemos visto camisetas de Vega, ahora te regalan una pulserita, y nos han dado mucha comedia. (Poor Volta X’D)

    • Javi_Charly

      Pero eso no es culpa de ellos, sino de los usuarios y niños rata.
      También pasa en el lado contrario, que todos dan por hecho que la siguiente Volta será un 50% mas potente que la 1080Ti, o que por 400€ tendrán esta potencia.
      Luego lloraran como con Vega, pero no por rendimiento, sino cuando se la pongan a 800€.

      • Riwer

        Con o sin competencia, si Volta no es un producto atractivo (salto de potencia que pique el gusanillo y precio atractivo) la gente no va a saltar a Volta.

        Nvidia lleva record tras record en ingresos. Si quiere mantener la racha no puede permitirse dormirse.

        http://www.silicon.es/q2-2018-nvidia-2349556?inf_by=596e1ccd671db81e4c8b49ce

        No te van a poner una 2070 a 800€, porque ante cualquier otra cosa son empresas que dependen del mercado.

      • bunbury79

        Supongo que todo este tinglado es para jugar a 4k porque por ejemplo yo juego a 1080 y no voy a cambiar en años y me va todo a tope a 60fps y no me he gastado mucho. Yo veo más marketing que otra cosa en buscar tanta potencia.

  • Sobando
  • Sergio Marquez

    Que se dediquen a competir en gpus de gama baja/media, la gama alta ya la han perdido para los proximos 5 años.

  • llorenç torrensmartorell

    esta vega 64 por el momento parece otra fury x y si, por ahora es un fracaso, ojo y mirad que yo siempre suelo encontrar cosas buenas y malas pero esque por el consumo excesivo que tiene no se que cosas buenas le puedo encontrar la verdad

  • Picantium
    • DARM164 (ADMI de EnDHoPe)

      Jajaaja este lo despiden verdad

  • El problemas siempre es lo mismo, estas empresas tienen que tener una gama alta para competir, pq la gama alta es lo que se fijan todos y da publicidad, aunque todos vayamos a pillar una gama media.
    Igual que los coches, pq Mercedes o Bmw venden tanto y ganan tanto, pq tienen buenos motores y la gente aspira a eso.

    Para mi Amd le falta competir en la gama alta,Vega es un despropósito, aunque en la gama media ya va bien, lo malo de esto es que dará muy mala imagen a la empresa y la gente que no este muy informada pensara que Amd en gpus es una mierda y dirán que ni merece la pena su gama media, ejemplo 1060 vs 480-580.

    Pasa lo mismo con los procesadores, en portátiles la gente se pilla el i7 pq es mejor, igual se pillan un i7 u, al final las gamas altas son muy importantes, pq hay mucha ignorancia.

    • Torso Cage

      Se pillan un i7 de portátil creyendo que rinden igual de uno de sobremesa cuando lo llaman i7 solo por marketing xD

      • Hay mucha gente que pilla cosas por la pegatina. Solo hay que ver a las chicas que dicen que mac o iphone es mejor pq es manza sisisi.

      • Riwer

        No creyendo eso, pero desde luego pocos saben que casi todo i7 de ultrabook son solo dual core.

    • Riwer

      El problema tambien son los refritos de AMD. Que por ejemplo pasó en la serie 7000 200 y 300 con lo mismo.

      Si estas Vega van a ser la gama media de Navi, pues ya sabemos que incluso en la gama media viene un producto ineficiente totalmente.

      • No se lo que harán pero Polaris ha estado bastante bien en consumo respecto a otras generaciones.
        Para mi Amd en la siguiente tiene que sacar algo gordo, pq este año pensaban que iban a superar a Nvidia y se han quedado cortos. Tienen que hacer los mismo que hicieron en la división de cpus, poner toda la carne en el asador.

        • Albert1007

          No. Lo que tienen que hacer es poner toda la carne en el asador en CPU’s, vender la división gráfica a alguien competente y con presupuesto, y con el dinero que se saquen, invertirlo en i+d en Zen i la arquitectura siguiente.

          Ya se está viendo claramente que no pueden competir a la vez en procesadores y en gráficas, mejor que se saquen el lastre y se centren en la que mejor les va.

        • loki

          como cuando vcendieron digital foundries y ahora genera más volumen de negocio q ellos mismos?? No hay q poner todos los huevos en la misma cesta, mejor q siga diversificando

  • Sobando
    • Riwer

      Raja’s Nukes

      Muy hot además xD

  • Victorín

    Ya sabemos por qué tardaron tanto en sacarlas, el ingenio aquí no es el rendimiento, sino llegar a alcanzar a la gama alta de Nvidia a base de Kw sin que estallen.
    Bien AMD.

  • JazekFTW

    Vaya puta cagada de amd, y con esos consumos no creo que ni los mineros se acerquen. Han hecho bien en traer solo 100 unidades a españa, total les van a durar hasta el año que viene

  • Raikkonen

    Rendimiento de una 1080 a precio de una 1080 Ti y consumiendo como un SLi de 1080’s.. Take my money AMD!!

    • Gigatrón

      Míralo por el lado bueno… Em… Esto… O quizás…

      Bueno, tú míralo.

  • DM98

    Mi duda es, como va a consumir más de 500W si los dos conectores de 8pin suman un total de 300W como máximo y el pcie 75W?

    • Magia, Amd esta compinchada con la eléctricas y coge energía por induccion xD

    • zapot

      buena pregunta, todo muy raro respecto a Vega la verdad…

    • AMDivia

      Parece que la especificación 3.0 soporta hasta 300W.
      http://www.tomshardware.com/forum/311065-30-watt-provide

      • DM98

        Segun tengo entendido aunque soporte 300W se siguen usando 75W porque para los 300 se necesitaria aumentar la seccion de las conexiones dentro de la placa.

        EDIT: y para llegar a 300 se necesita un conector suplementario.

        • AMDivia

          En espera de la review de Iván, a ver si puede aportar algo de luz respecto al consumo, para saber si esos 500W tienen una explicación o son un invento.

        • DM98

          Sinceramente 500 no se pero más de 300W me lo creo, las frontier según gamers nexus llegaban a 400 con OC o algo asi.

    • KLS

      Pues igual que les pasaba a las RX480 que tambien sobrecargaban el pcie. Posible es, pero de momento hay que cogerlo todo con pinzas.

      Supongo que con las reviews saldremos de dudas.

  • el repartidor de zas

    Es una lástima que no hayan sacado un buen producto. Que mierda de compañía. Para lo que han quedado.

  • Sobando
    • Dr. Zilog

      Se jacta de ello, sí xD

    • Guillermo

      soy mu fan de la mujer que esta con Raja. Tiene una cara de que cojones hago yo aqui

      • Sobando

        Estoy en desacuerdo, si te fijas primero le mira fijamente el puro que tiene el boca, después baja la mirada hacia su entrepierna, se muerde el labio imaginándose cómo le gustaría hacer lo mismo con ese de allí.

        • Guillermo

          Fijo que se Raja al ver a ese de alli alcanza temperaturas superiores a las del sol

  • Zeedel

    Espero que no lleguen a Portugal si no la situación va a estar que arde

  • Jorge

    Yo me quedo con el Legacy de la Fury X

  • mrSister

    sinceramente, bastante decepcionante si el rendimiento no acompaña.. Esto no es mas que una Fury X pasada de vueltas XD

    Pero no me creo que hallan llegado a esto sin algun problema realmente serio en el desarrollo. O les chaparon en el presupuesto a medio camino o decidieron abandonar la arquitectura o lo que sea. Para trucar una FuryX no hacia falta esperar 2 años.

    Como mucho podran venderlas en la serie Instinct, donde con un chip mas pequeño que el p100, sacan igual o mas tflops.

  • Torpedo

    Si encima son 150e más caras que la 1080, ya no merece la pena el pack de descuento para los procesadores ryzen, descontaban 100e creo, así que si compras un ryzen y una 1080 aun te ahorras 50e

  • FullKiller1—RGB—

    Dios, 500w¡¡¡¡ Rajoy aprueba su compra en España. Xdddd

    Solo AMD puede hacer que una tecnología tan puntera como la memoria HBM quede ridiculizada en sus productos.

    Gracias AMD por dejar que Nvidia haga lo que le salga de los cojones, ahora juanitoCudacore tiene vía libre para poner precios altos y estar de vacaciones un buen tiempo, como paso con a Intel durante tanto tiempo.

    • anselmo

      la culpa es de los drivers

      • Albert1007

        Te has dejado el /s

        • anselmo

          Aleacom vendra con su vega truñitos Rx64 aio en el 2019 comparandola con la 1080ti diciendo: mira que bien va con el drivers actuales, se cruje a la titan Xp 2.0!!!
          Nos pondra un video en 4k pero editado

      • FullKiller1—RGB—

        Tu le podías echar una manilla con el DLC de los Sims, no les vendría muy mal. Xd

  • tomelloso

    500W?¿?¿, gasta mas que mi lavadora en centrifugado, el minero que se monte un rig con esto, necesitara su propia planta nuclear.

  • NOCIVOX

    menudo batacazo se ha llevado AMD, supongo que su mercado es el minado y le suda las pelotas si rinde en juegos o no como si consume como un pequeño país…

  • Dr. Zilog

    Si hay algo con lo que no puedo, es con la ineficiencia energética, awwws :S

    https://uploads.disquscdn.com/images/4ac8c11c34270ef8099808e0994302112807ef586085064ebff3bcc67d98b4c1.gif

    • Mastermagister

      Admito que son un despropósito sobretodo cuando lo comparas con su competencia directa, pero dios quiera que nunca mueran y aprendan de sus errores como hicieron con su linea de CPU.

      • Dr. Zilog

        Habrá que fijarse en Vega 56 que tiene más puntos para ser un producto interesante. Sacar al mercado Vega 64 con ese rendimiento por vatio, a priori tan disparatado, no tiene ningún sentido

        • Mastermagister

          Opino igual el precio será determinante para ver si merece la pena ese extra de TP vs la GTX 1070.

      • Albert1007

        Al contrario, ojalá desistan y vendan a alguien con presupuesto y gente competente.

        • Mastermagister

          Haber que tienen gente competente si tienen viendo lo muy eficientes que son tanto enigmáticamente como en temperaturas de funcionamiento de los Ryzen (aunque se adelantaron unos meses la salida), el problema es que creo que priorizaron más su linea de CPU’s vs su linea de GPU’s debido a que tenia años abandonada y con salidas de productos bastante peores en comparación a estas VEGAS como fue la serie FX 9000.
          No creo que una compra por parte de una compañía signifique que seguirán la misma linea de negocio. Samsung o Microsoft si compran AMD lo más probable es que priorizarán desarrollar chips móviles utilizando las patentes de AMD o otro ejemplo Microsoft sea ahorra un dinero extra por cada xbox one y podrá lograr mejorar su emulador de programas x86 en chips ARM.

  • Ricardo Ponce Gil

    Entiendo que en la gama alta no importe mucho el consumo pero incluso el consumo de la Vega 64 Air es absurdo

  • Es Absurdo, vaya basura de gráfica.

  • Gigatrón

    Cuota de venta de Vega: Un ñordo bien gordo.

  • GtxRemix

    y cualquiera mina con esos consumos xD y pa juegos no sirve… Han creado a un monstruo
    https://www.youtube.com/watch?v=_hlYVxuWRXc

  • maz1nger

    Los fabricantes de fuentes de alimentación frotandose las manos

  • Albert1007

    Aleacom depresivo por que su idolatrada AMD ha sacado una mierda que ni él puede defender en 3, 2, 1,…

  • El Hombre Que Rie

    Para vosotros AMDeros…

  • Felix_elgato

    K me vuelvan a recomendar una fuente de alimentación, la última k me recomendaron aquí no cubre ni el consumo de mi Vega Repsol/gasnatural/Endesa/felipegoNzalez Edition.
    Jajajajajaja, el raja se parte la caja.

  • FullKiller1—RGB—

    Por lo visto el trabajo de Raja en estos momentos es ir a la casa de juanito Cudacore con un buen fajo de billetes sacado de la mineria, para pedirle que atrase volta todo lo posible.

    jajajajja

  • Renton

    Offtopic: ya q estams con consumos, pregunto. Con esto puedo montar una gtx 1080 o 1070sli? https://uploads.disquscdn.com/images/67cdbb5609a3aec3117443bf5bd3ee9a696c821503f0967616051e14f9e8923f.jpg

    • Fjps

      Puedes, pero contrata un buen seguro de hogar.

      • Renton

        Y para 2 RX Vega 64 por crossfire?

        • Fjps

          Si estás dispuesto a enfrentarte en una disputa legal con Greenpeace adelante.

    • Victorín

      Yo tiraría por una de 800w en adelante

      • Renton

        Joer pues cuando la pillé me dijeron q de 500W para arriba, ni me preocupara..

        • Sobando

          Cada vez que venden una Tacens el niño Jesús llora.

        • Burn Thegames

          Claro, pero no para sli. Con una de 500w tienes bastante para u a 1080

      • Albert1007

        Alaaa
        Pero si con una de 750W buena ya puedes poner un R7 oceado y una 1080TI xD

        • Victorín

          Ha dicho sli

    • gasparspeed

      Poe potencia. De 1070 diria que si. De 1080 no estaría yo tan seguro.
      Pero con esa fuente en concreto no. Primero porque solo tiene 2 conectores de 8-pines y segundo y mas importante porque realmente ni es de 700W ni es para nada buena fuente.

      • Renton

        Y si no es de 700W de qué es?

        • Albert1007

          Es tacens. Da 500 W los días buenos y 350W los malos.

        • Torso Cage

          Los buenos 350w, los malos explota

        • Fjps

          Mierda, te me has adelantado

        • Torso Cage
        • Renton

          Bueno, dejad de meteros con mis componentes gaming

        • Torso Cage
        • Fjps

          Cómo va a ser eso gaming si no lleva led rgb

        • Renton

          Pero le metí unas luces a la caja

        • Albert1007

          Perfecta para una VEGA liquid y un i9 a 5Ghz :sisisisi:

        • gasparspeed

          Para i9 + Vega lo mejor son las Mars Gaming 1000W de 50€ :sisi3:

        • Albert1007

          23″99€ en las ferias de mi pueblo :sisi3:

        • Torso Cage

          Te falta el nitrógeno + delid para el i9

        • Albert1007

          Y nitrógeno también en el loop de la vega, han hablado de consumos pero no de temps, esos 500W deben estar muy calientes
          ( • )( • )ԅ(≖‿≖ԅ)

        • Torso Cage

          Pues nada, tu te encargas de comprarlo entonces xD

        • Albert1007

          Y una po, lo siguiente que se viene a casa es una 1080TI :DDD

        • Fjps

          Y los días muy buenos da 650 y explota.

        • gasparspeed

          En las fallas xD

        • gasparspeed

          Concretamente “Hasta 612W”, eso si no explota por el camino (mira el rail de 12v).

        • matberu

          https://www.youtube.com/watch?v=M4rLu8vPNU0

          Mírate este vídeo y comprenderás muchas cosas (en serio, miratelo entero)

        • Renton

          Llevo 37 segundos y les llama “fuentes de poder”..
          No sé si quitarlo..

        • matberu

          a ver, en latinoamerica se les llama fuentes de poder, al igual que alli se llama a los moviles celulares… es normal xD

        • Renton

          Las fuentes de poder sólo están en Skyrim xD

      • Renton

        Pero con dos conectores de 8 pines es suficiente no? la 1060 que llevo ahora usa 2 de 6pines. El rollo es que para configuraciones sli que necesitaría 4 de 8 pines?
        En este foro están recomendando a otro usuario una fuente con 550W en el rail de +12v para una GTX 1080. It’s that possible?

        • Albert1007

          Todas las fuentes llevan determinados conectores de 8, unas más, otras menos.

          El problema es que las tacens cuando tendrían que dar 12V dan 10 o 11V por el raíl, y 700W de potencia ni en puta coña, 500 Y GRACIAS.

        • Renton

          Sí, ninguna da lo que pone pero no se supone que con certificación plus silver entrega como minimo un 85% de la energía? O es fake lo de las certs?
          https://uploads.disquscdn.com/images/a6ba3e26267312149f7eedee580eccae8d9b590722837929d3ce355de6a572e7.png

        • Renton

          en el caso de esta: en el rail de 12v 612W*0.85=520w osea decís que de potencia iria bien pero que no me fie de la marca no?

        • matberu

          exacto, no te fies de tacens, por lo general usan componentes de mala calidad…

          Yo tengo una fuente tacens y no fui capaz de usar la rx 480 a pesar de ser de 750w… xD

          Así que imagínate lo malo que tiene que ser esa fuente de alimentación, a cargas bajas o usando gráficas de bajo consumo, no me ha dado ningún problema, pero cuando a la fuente le metes caña con tarjetas gráficas que consuman bastante, lo vas a pasar muy mal…

        • Renton

          Si no, me habéis convencido. Igual me espero a Volta que de momento tira bien la gtx 1060, pero en cuando cambie, vendo la Tacens esta y me pillo una EVGA o algo así fijísimo 😉

        • Albert1007

          No, no son fake, pero digamos que Tacens tiene una dilatada trayectoria en falsificar certificados para sus fuentes xD

        • gasparspeed

          550W para una sola GTX 1080 funciona perfecto ( a no ser que te pongas a hacer OC a saco en CPU y GPU)
          Y obviamente, si pones 2 graficas, tienes que conectarlas a alimentación las dos, siendo 1070s/1080s, a no ser que tal vez sean las minis que creo que llevan solo 1 conector de 6 o de 8 cada una, no podrías.
          Aunque igualmente esa fuente es muy mala y no deberias alimentar un SLI con ella sinceramente.
          El numero de pines necesario depende exclusivamente del modelo en concreto de graficas que elijas.

    • Albert1007

      Depende.
      Qué CPU tienes?

      • Renton

        I5-6600k pero sin oc, como viene de stock.
        Ahora le tengo metido una 1060 6gb y va perito, pero si cambio, no sé..

        • Albert1007

          Si aprecias ese i5, no le metas una tacens.
          Seasonic o EVGA

        • Renton

          Me parece q voy a vender mi pc. Fuente tacens y placa base con rgb “gaming” pero q no me permite hacer OC al cpu xDD.
          Fué la primera q monté yo solo y se nota xDD

        • Albert1007

          Espérate a coffee lake y pilla algún i5k con una z370 baratilla.

          Lo obligatorio a vender es la fuente xD

        • Renton

          Home si tngo q cambiar cpu, placa y fuente, casi cambio todo xDDD

        • Fjps

          De los errores se aprende. Cuando monté mi primer PC también puse una Tacens (casualmente una Radix IV de 700W). Lo curioso es que aún funciona, pero ni loco la volveré a meter con componentes decentes.

        • Albert1007

          La mía fue una Cooler Master G750M xD

  • A estas alturas y siguen manchando el nombre de su compañía con estas mierdas? La división de tarjetas gráficas de esta compañía la debe de llevar un mono con platillos porque no es ni medio normal las mierdas que hacen. Es comprensible que luego la gente no sepa ver lo buenos que son los ryzen solo por el mal nombre que se ganan en gráficas.

  • Ricardo Ponce Gil

    Se imaginan un Pc con ese i9 que consumía como el demonio + la VEGA 64 liquid?

  • Rfa1987

    dale potensia a tu carro

  • Que bien tiene que mover el No Man’s Sky, ambos han sido puro humo 😀

  • Wâš

    Los drivers son los padres. Una pena por la falta de competencia, a pasar por el aro verde

  • Alfonso Ochando

    Joder, que puto lamentable es Amd siempre, mira que soy de Nvidia y deseo una competencia sana, donde Amd reviente a nvidia, pero nada, siempre la misma puta mierda, luego que si Nvidia tiene precios altos. Normal, es como dacia contra bmw xd.

  • Sobando

    RAJA se gastó T_D__N_P_T_S

  • lbra

    Y no será eso consumo de todo el equipo?,me parece demasiado hasta para las AMD.

  • BDragonStudios

    ¿Por que la critican tanto? Si AMD esta pensando en nosotros para el invierno, gráfica y calefacción 2 x 1, diseño de radiador xD Me pillare la rx570 con ryzen1500x, no paso de los 500w y ya tengo para varios años tss

    • peters

      Si encuentras la 570 en stock a buen precio por favor comentámelo. Llevo dos meses y con vega pensé mejoraría el panorama. Pero va a ser alreves. Es que las 570 y 580 están infladisimas de precio…

      • BDragonStudios

        en vsgamers (suelen salir sus anuncios en los banners de aqui) son las unicas que le quedan en stock de amd (340€… hace un año salían casi 100€ menos…malditos mineros), aunque yo estoy planeando pillarme un equipo completo de ellos, justamente la version recomendada por esta pagina, 999€ con Rizen 1500x, rx570, 16gb de ram, ssd y hdd. Equipo completo, testeado, configurado y garantia de 2 años :v mas rentable y seguro que montarmelo a piezas.

        • peters

          Suena bien.
          Es que esos 100 euros más, un año después por culpa de los putos mineros, pues prefiero esperar. La tecnología debería bajar de precio con el tiempo y no alreves. Se és culpa del mercado, oferta y demanda. Entonces prefiero echar la culpa a la poca oferta de AMD.

        • loki

          hace un mes la nitro+4gb en 280 pccomp, xtrememedia, alternate, busca a diario, la semnana pasada en la ultima habian 580’s

  • Bueno, ya sabemos que estás tarjetas AMD siempre mejoran con el tiempo y a través de los drivers conseguirán que rinda como una 1080Ti, consuma 100W y cuesten 300€

    • Albert1007

      Y te haga las tostadas por la mañana, te dé los buenos días con voz de enfermera cachonda y te monte ella misma tus futuros pc’s :sisi3:

    • loki

      justo antes de lanzar Navi para liquidiar stock

  • Jose

    La Vega 64 va a ser uno de los mejores componentes para probar fuentes, como no esten finas las va a fundir.
    AMD ha hecho historia

    • Angie__X

      cuando veas a alguien con una tacens le dices, quieres ver como peta???…jajaja

    • Guillermo

      Seamos realistas, todas las empresas la cagan. En el caso de AMD se ha empeñado en intentar ganar a Nvidia a base de fuerza bruta y pasa lo que pasa.

      • Angie__X

        pues eso demuestra justamente una falta de diseño, tecnologia y desarrollo…emplea la fuerza bruta porque no tiene otra cosa…

        • Guillermo

          Estoy de acuerdo con tu postura. Y espero que con el paso del tiempo AMD aprenda a que no siempe la fuerza bruta es la solucion y se pongan las pilas como paso con Ryzen.

        • Angie__X

          esperate con ryzen, que eso de que no van a corregir lo de los ccx en la segunda version suena raro…o es que quieren aprovechar el tiron invirtiendo lo menos posible o es que no saben como arreglarlo…que esa es otra…

        • Albert1007

          Hombre, yo espero seriamente que con Zen 2 el tema CCX esté arreglado, les doy un voto de confianza, si no 8700K o 9700K, poco problema tengo yo en cambiarme xD

        • Asurmen

          Ya tengo mi 1600 de camino, con una b350 prime plus y memorias flarex 3200 cl14, para evitar problemas, y refri al final opte por el noctua nh-u12s ^_____^
          En zen2 con que mejoren algo el ancho y las latencias del fabric y permitan subirlos a 4.4-4.5ghz ya me parecería una gran mejora.
          Cambios estructurales ya pal cambio de nm o un supuesto zen3 a 14nm++

        • Albert1007

          Yo tengo unas corsair 3200 C16, con chips samsumg, cuando tenga tiempo en casa pruebo a hacerles oveeclock o a bajarles las latencias

        • Alex Tokihara

          Zen 3 seria a 7nm

        • Asurmen

          Y por eso digo al cambio de nm o un supuesto… ya se que amd lo anuncia a 7nm pero ni tu ni nadie me puede certificar que eso se cumpla en 2019 y que sea a 7nm realmente, a eso me refiero, el roadmap de la diapositiva lo conozco.

        • Guillermo

          En cuanto a CPUs, creo que AMD hizo y hace un bun trabajo. Ahora bien, esperemos que AMD no se suba al tren de los refritos con un 15% mas de mejora. Pero no quiero poner la mano en el fuego, puesto que solo tienes que ver VEGA. Pero bueno, como dice albert1007 espero que AMD siga si, y si no, cuando mi r5 1400 no pueda mas, optare por el CPU que mejor precio/calidad tenga

        • Albert1007

          Hombre, un 15% de mejora ya daría para mucho. El problema es el 2-5% que ha habido últimamente xD

      • Jose

        Si me miras asi te doy un beso

    • AMDivia
    • Ruben98mb

      Yo en mi primer pc puse una fuente aqprox y me explotó jugando al metro last light con un fx 8320 @ 4,7ghz y una gtx 770 tire de garantía y me dieron otra me volvió a explotar y volví a la garantía y dije no quiero mas de esta marca y me compré una tacens radix de 750w y se fundió no llego ni al año y ya harto de mierda busque una fuente que no petara aunque me dejara pasta a tope y bendita decisión me compré una flower power de 750w me costó 150 euros y ya os digo yo que eso no falla diría que tengo fuente para 4 Pcs https://uploads.disquscdn.com/images/283397f441a056412c8ca71c4627a4e7ed67d4ff318453986ec4f16040f58b67.jpg

      • KLS

        ¿Te compraste una fuente hippie o te compraste una Superflower?

        Yo tambien le tengo echado el ojo a esta marca. En los ultimos años se ha hecho un hueco importante, y ya fabrica modelos de gama alta para otras marcas. Sin duda una buena compra…

      • Jl MBas

        yo tengo la de 850w, y ya te digo que cuando hagamos el cambio sera por aburrimiento.

  • Enric Ortiz

    Menos mal que no hice caso a la gente y al final cogí la 1080 ti de Asus porque si me llego a esperar mes y medio para este bodrio, me hubiera cagado en todo 100 veces

    • Hugo Scali

      Yo estuve en la misma cuando dije hace unos 5 meses que iba a armar un ryzen con una 1080ti todos me dijeron que espere a Vega pero estoy súper feliz actualmente con las 1080ti.

    • Jorge IL

      Tengo a 2 colegas en tu situación y ahora al menos les sale más barata las 1080Ti pero están cabreados por esta presentación.

      • Enric Ortiz

        Yo menos mal que pillé la 1080 ti asus que me va dpm 😛

    • Kazurth

      Al final comprare la asus strix 1080ti, q parece q es de las mejores custom calidad-precio.Esta 787€.Tendre cuello de botella con un i7 4770k?Creeis q seria mejor q me espere un año y compre lo nuevo de intel y de nvidia?

      • Enric Ortiz

        Yo de momento la tengo y he encantado y no, no tendrás cuello de botella con ese procesador

    • kapataz

      para alguien que tiene una r9 290 vale la pena cambiarse a una 1080 o es mejor irse a la 1080 ti claro que vale bastante mas

      • Enric Ortiz

        las 2 es un gran cambio, incluso una 1070 valdría la pena el cambio

  • Jorge IL

    Ya todavía había gente que decía…bah me espero a la Vega que seguro reventará a la 1080 Ti. Está claro que quien lleva la sarten por el mango es Nvidia.

    • anselmo

      Desde kepler con las 780Ti hasta ahora ha tenido el monopolio.

      • Burn Thegames

        Hombre contra la 780ti amd luchaba bastante bien. Amd pudo luchar contra nvidia hasta maxwell.

        • anselmo

          la 780ti oc ganaba facil a la 290x oc en la mayoria de casos

  • Lucas Viñas Torruella

    Solo la 64 liquid consume mas que todo mi pc entero:

    I7 7700
    Asus b150i pro gaming/aura
    16gb kingston hyperx
    Corsair TX650M
    2 ssd 1tb samsung
    Geforce gtx 1080 windforce OC
    TOTAL – 413W (calculado en http://www.outervision.com/power-supply-calculator)

    RX Vega 64 liquid
    TOTAL – 516W

    LOL

    • Burn Thegames

      Creo que la medición es con el equipo completo.
      ¿Como va a consumir la vega 64 500w cuando 2 conectores de 8 pines más el puerto pci dan un consumo máximo de 375w?

      • Riwer

        Segun el reviewer coreano orignal, el consumo es sólo la gráfica. (y tiene sentido con los consumos en idle o gaming, porque ese consumo en gaming es imposible sumando solo cpu)

        La explicacion es que los unicos absolutos son los 75W PCI, y ni eso, porque las 480 quemaban puertos pci por pasarse chupando de ahi.

        Pueden pedir más de las especificaciones por los conectores PCIe

      • Lucas Viñas Torruella

        Los conectores de 8 pines pueden dar mucho mas de 150w cada uno, 150w es el estandar para que no haya fuentes cutres que den 20w y tan contentos, pero una fuente de 1500w seguro que puede dar muchisimo mas de 150w por conector

      • KLS

        Pues en las reviews ya hablan de picos de mas de 600W…

      • ElBouAlex

        Es que picos y consumo típico no es lo mismo

  • Picantium
  • AMDivia
  • Neoset

    Si lo que quieren es hundir la compañia para una futura venta, lo estan bordando, si AMD estaba en el pozo y necesitaba resurgir con esta arquitectura la han cagado bien.
    No hay excusa de: “Lo han intentado pero no han podido, no han tenido tiempo, etc.” han tenido tiempo suficiente en 2 años para sacar algo mejor que esto y han tenido tiempo suficiente para al menos copiar a Nvidia su arquitectura con algunos cambios en el peor de los casos e incluso mejorarla si es que no tienen las suficientes pelotas para sacar una propia.
    Asique no tiene excusa que quieran sacarnos 700 pavos por grafica, no ofreciendo competencia a Nvidia y que suban mas los precios reventando el mercado de esta manera.
    Han hecho muy mal su trabajo, asi es la vida si no espabilas te comen y AMD no da espabilado la torrija, parece mentira lo que han sacado al mercado no les da vergüenza sacar esto y aun por encima mentir en los bench diciendo que iba a ser bastante mas rapida que gtx1080.
    Haber si venden AMD de una vez y empezamos a ver algo de competencia que de estos inutiles no se puede esperar nada bueno.

  • El Puto Jefe

    Uno apoyando a VEGA antes de la salida , con la excusa de tener una buena competencia, como ahora AMD vs Intel.

    Pero ni mierda, AMD es muy malo en gama alta de GPU.

    https://uploads.disquscdn.com/images/c2c979d7894a83a57c15d1569dd75293116f740536fc21eb277ab75e6db04b26.jpg

  • Tánatos

    Cuando sale la proxima generación, nvidia/amd?

    • Angie__X

      despues del ostion que se acaba de meter con vega habria que ver si amd sigue empeñada en seguir fabricando algo con lo que no puede competir…

      • Kazurth

        lo unico q las salvaria a estas graficas es su precio.Y tiene q ser precio de gama media -baja.Ni los mineros le renta esta basura

        • Bsa

          Para salvarse tendrían que salir a 200-250€ menos de lo que cuestan…y no va ser así. Cagadón completo de AMD.

  • Angie__X

    el falso hype de amd es una de las cosas por las que no trago a esta marca…

    es que llevan toda la puta vida desde el exito de los k7 y su decadencia con los k8 con la misma movida, un hype de cojones que luego todo se queda en otro y otro pluf y plof y crash y cata crash….

  • Enric Ortiz

    ah y encima la placa base msi x370 krait gaming se me ha vuelto a fastidiar por 2da vez. 😀

    • deltafrost91

      de que hablar tu

      • Enric Ortiz

        pues eso que se me ha fastidiado

      • Enric Ortiz

        ayer me fui a dormir hoy me he despertado y no daba señal el pc he cambiado la grafica de sitio y iba, he probado fuente disco en otro pc y iba, incluso la ram pero la placa base no

  • Juan Aponte

    creo que lo mas lamentable no es que Vega sea un mal producto comparado con las GTX 1080 si no que AMD no haya aceptado que no pudo ni siquiera igualar a los productos viejos de la competencia y lo peor que lo quiera vender como lo mejor de lo mejor a un precio absurdo.

    • Jl MBas

      El problema es el precio, si saliera 100 € mas barata vale, pero no………

  • anselmo

    Consumo y rendimiento @ 1080ti undervolt

    https://www.youtube.com/watch?v=0fkffgs9c-4&feature=youtu.be

    Recordad que una 1080 oc consume mas de 200W y no llega ni a 130fps a mas de 2100mhz 1.093v /5500mhz

    http://i.imgur.com/F6nyYTy.png

  • Rafael

    Mejor esperar a Navi, o comprarse una 1080.

  • Bsa

    Pues lo que veíamos muchos desde hace 1 año casi…. menudo paseo para nvidia ahora con volta…

  • Bsa

    Al final hice bien en invertir el dinero que tenía reservado para VEGA en la entrada del coche XD

  • aittel

    con ese consumo me pregunto si los mineros las comprarían?
    lo hicieron bien con ryzen a pesar de los problemas pero en lo que se refiera a GPU la están cagando y bien feo, me pase a nvidea por que me canse de esperar por vega y creo que hice bien, en cuando a mi ryzen me va muy bien y hay si no tengo quejas.
    https://uploads.disquscdn.com/images/00184fb8c7873cbd16ce5ed758dec01f7d959c2e19705ee84630e08dffdca466.jpg
    despidan a todos esos vestías adoradores de mineros de la división de GPUs y empiecen desde cero pero esta vez para gamer.

  • Al Bacione

    Pues quien quiera jugar a Battlefield 1 a 1440p o 4K le conviene la Vega XD

  • Flauros

    Esta claro que tendrian que haberla limitado via BIOS, esperemos que lo hagan via drivers por que sino el nivel de RMA superara el de la 290x xD

  • Javier Saove

    El BF1 puede arrojar una luz por ser un juego muy jugado y que yò optimizaria de salida, lo demas es desesperanzador de momento…

  • Yago
    • Jl MBas

      es un sin sentido

      • loki

        precio fanboy

  • Muntazar ibn Fatāhullah

    Vega es el i9 7900X de AMD :/

  • Woster

    Pues viendo el panorama no se si vender mi 1070 y pillar una 1080 porque hasta que saquen la next gen…

  • Marco Antonio

    bonita comparación colocando el “MSAA” de Nvidia xD y juegos con directx 11 xP

    • Jl MBas

      y conectaron el aspirador y la secadora el mismo enchufe, yo lo vi.

  • De Cristobal Agüero Poki

    Es posible que consuma taaaaaaaaaaaaaanto? No tiene sentido

  • Mr Objection

    Ok, ahora lo importante, mina bien?

  • julio medero

    Tipico Europeo hablando de consumo, todo aquel que se queja del consumo en su vida va a comprar algo tope de gama

  • rodbux

    vega? a la vergaaaa

  • FERNANDO

    ¿Quieres conocer el infierno?, pues prueba una de estas con un core i9.

  • Ostia pabo!!! que es verdad!!

    Yo no maldigo mi suerteeee…. PORQUE MINERO NASÍIIIII

    xDDDDDDDDDDDDDDDD

  • wavempty

    ahahaha pobres payasos estos chaputas FANBOYS

  • Sir Mercer

    AJAJAJAJAJ comparan las GTX 1080s en version FE XD

    por que no ponen una 1080 custom para ver las mismas condiciones que la liquid ?

    que esconden de AMD …….. su cagada de la cual ya todos estamos enterados ? LOL XD

    se le ve el plumero a AMD señores , en lo que si no mintieron ,fue en lo de recomendar fuentes de 1000 wats ajajajajaaj XD

    https://uploads.disquscdn.com/images/65df8c58c2437751c3a31b0807a6412616279e8fd8a270f5b8cdead72fa90230.gif

  • AMD ha dado un salto de un +30% de rendimiento respecto a su anterior generación.
    – Yo a eso no le llamo fracaso. Le llamo Éxito.

    Sin más, ahí tenéis las sucesoras de las FURY, punto, quien quiera un +30% más de rendimiento respecto a las FURY ahí las tiene, me encanta AMD, no es como Nvidia que te saca un producto con un rendimiento de un +5% y te lo cuelan como nuevo, además que a los 6 meses no dan soporte. Aquí estamos hablando de un producto de AMD que da de primeras un +30% que su último modelo y que además da soporte durante muchos años mejorando con eso y subiendo mucho más ése +30% inicial llegando al +60% fácilmente con algo pulido y juegos que aprovechen tan alta tecnología como la que es HBM fase 1 FURY y HBM2 fase 2 VEGA.

    – QUE NO OS ENGAÑEN, ahí están los datos, potencia bruta.

    *Yo sin lugar a dudas, soy de los que tiene AMD porque ofrecen una potencia impresionante, un programa RELIVE acojonante años luz de lo que ofrece Nvidia y años de mejora. Estas gráficas con HBM son tan potentes que los mínimos son mas estables que las Nvidia, puedes jugar a 4K más tranquilo que las Nvidia, AMD ES LÍDER EN EL SEGMENTO DE LAS ALTAS RESOLUCIONES.

    • Asumo que con la compra te dan un vale con 10% de descuento en la compra de una fuente de 800w+ como minimo

    • Albert1007

      Que si chaval, a base de potencia bruta todo se puede, necesitando a este paso una fuente de 1200W solo para la GPU… ni tecnología punta ni mierdas, despropósito de eficiencia energética para sacarle un triste 3% a una que no es ni la tope de gama.

      A llorar a tu cueva, fanboy.

    • R9 Fury

      Macho,deja ya de contar mentiras que no te las crees ni tu,y no me vengas con chorradas que soy usuario de una fury mutada a fury X,tambien tengo una 980ti,estas vega ahora mismo son un FAIL en toda regla lo mires por donde lo mires,ni hbm2 ni historias,precio inflado a mas no poder un consumo de un par de huevos,yo no se que chorradas cuentas por aqui,los datos estan en la red,por mucho que te empeñes en decir lo contrario,disfruta de tu fury pero deja de hacer el fanatico con tus comentarios absurdos.

    • Riwer

      5%? AMD ni en sus sueños más humedos conseguiria un salto como el que ha habido de Maxwell a Pascal.

      Y tranquilo, que para no NO NOS ENGAÑEN, no vamos a hacer caso a tus engaños xD

      Saluda a AMD España de mi parte xD

  • Jobé

    la compañera perfecta para mi FX 9590 <3 <3 /S

  • Adrián Ramón Plá
    • Riwer

      Pues lo mismo que pasa en BF1 o cualquier otro juego pro AMD. No hay mas que ver como la 580 le saca tambien casi 30fps a la 1060 siendo ambas lo mismo (de hecho en la mayoria de titulos queda igual o por debajo de la 1060, y encima es la de 9Gbps xD).

      En los proMarca, la marca funciona mejor por estar optimizada para ello al mismo tiempo que la competencia funciona peor.

      Vease como en GTA, la Vega64 está 30fps por debajo de una 1070 xD

      • Adrián Ramón Plá

        Entonces hay que reconocer que la mayoría de juegos son “Pro” Nvidia porque es el líder del mercado asi de sencillo, pero los fanboys dicen porque el hardware es mejor, entonces hay que tener en claro que lamentablemente los juegos no aprovechan bien las arquitecturas cual sea la marca…. lo de GTA 5 y lo de Rockstar Games tiene delito, son muy pro Nvidia los desgraciados! Juegos como Watchdogs, o el Mafia 3 no van tan mal en hardware AMD, algun fps mas o fps menos, pero 10,20,30 o hasta 40 fps menos hay que analizar ese código delictivo hacia AMD….

        • Riwer

          El tema no funciona asi.
          Los unicos juegos “pro algo” son los patrocinados por la empresa de turno.
          Es decir, que meten pasta en el desarrollo o sus herramientas. Y eso ocurre en minoria de juegos, no en casi todos, ni la mayoria es “pro Nvidia”.
          La mayoria son independientes a las marcas.

          Si los juegos funcionan mejor en Nvidia es porque clarmaente Nvidia con mas dinero y mas medios hace un hardware superior. A estas alturas nadie puede negar eso.

  • Jimmy Ginault

    hasta los mineros se verán afectados…

  • Gustavo Nuñez

    Que error garrafal en el titulo

  • cansado

    Madre mía, VEGA solo ha llegado para hacerle más publicidad a Pascal xD

  • Kiyuw

    Por lo que he leído las vega si eran buenas para minar pero no han incluido las instrucciones asm tan necesarias según dicen para la minería, alguien a modificado la frontier y ha conseguido 80 mh/s así que no se a que juega AMD

  • Gustavo N.

    Cambien el título, no desinformen. Saludos

    • JC Denton

      Desinformar lo que?, vega consume una barbaridad para lo poco y nada que rinden, casualmente muchos invitados han aparecido a defender esta barbarie de graficas.

      • Gustavo N.

        A ver Sr. , por culpa de titulos como este, muchos afirmaban que vega 64 consume mas de 500w, no entienden que el grafico es @powerlimit +50%. Consume mucho, si, pero es lo que dijo AMD es sus graficas y en ningun momento dijo lo contrario, aqui nadie niega eso, quizas consume un poco mas o menos.

  • FancoFC

    No mamen que desinformacion e incredulidad el consumo tipico del modelo air que sera el mas famoso aparte de que saldran los modelos de ensambladoras, tienen un consumo tipico de 262w/308 en balanced y en turbo suve hasta 330 y con el limitador de power al 50% 349 y la que consume 516w es el modelo liquid ya que con su refrigeracion y obiamente como muestran ahi el power limit al 50% solo por eso sino en modo turbo se mantiene en 484w…pero obio estas graficas son caras la que interesa seran los modelos de aire/ensambladoras que como se dijo en balanced 262/308w…

    • FancoFC

      aclaro power limit a +50%

  • El LLOLLOZXD!

    Tengo una sencilla curiosidad… si ya sabiamos q estas gpu eran una porqueria aun antes de salir y luego que salieron se confirmo desde un primer momento q son una porqueria,¿Por que demonios tiene tantas malditas reviews que confirman la misma fucking idea de @#~|€@&()$·” que ya se sabe hasta en la patagonia? sorry por el sobresalto, suele suceder cuando veo despropositos.

  • El LLOLLOZXD!

    Por cierto, este es el consumo que imagino tendra la proxima GPU de AMD si siguen como van:
    https://uploads.disquscdn.com/images/47b4f9fb814bdb28418d38b297199ac1bd203e82665625a6783a5cec05fcb5c5.gif

  • Lucas Viñas Torruella

    Video explicativo de las Volta
    https://youtu.be/pfYESNt6Szc