AMD VEGA 10 con 8GB HBM2 fue la que movió DOOM a 4K, es más potente que la GTX 1080

El paso de AMD por el CES fue decepcionante, pues todo se limitó a liberar unas diapositivas para conocer la arquitectura VEGA. Pero lo más interesante llega por detrás de los bastidores, conociendo ahora que la demo ejecutada por su equipo, que conseguía ejecutar el DOOM en calidad Ultra a una resolución 4K por encima de los 60 FPS hacía uso de una gráfica basada en el silicio VEGA 10 que empleaba 8 GB de memoria HBM2.

 

A ello se le suma una entrevista de PCWorld a Raja Koduri, presidente del grupo Radeon Technologies Group, donde se mojó para revelar que dicha gráfica no solo es más potente que la GeForce GTX 1080 ejecutando dicho juego bajo la API Vulkan, sino que bajo OpenGL le “baja los pantalones a la GeForce GTX 1080“. También tenemos fotografías de la gráfica tras su paso por el CES, la cual estaba tapada por todos lados, pues se trata de una muestra de ingeniería.

Esta es una respuesta importante, porque las API de bajo nivel como DirectX 12 y Vulkan han mostrado una clara tendencia a favorecer la arquitectura gráfica de AMD sobre Nvidia. Mientras que las API más antiguas y altamente abstraídas como OpenGL y DirectX 11 siguen favoreciendo a las GPUs de Nvidia. Si VEGA 10 puede mantener su liderazgo sobre la GTX 1080 en OpenGL, esto sería un buen presagio para el rendimiento de la GPU en títulos DirectX 11 también. La respuesta a la pregunta era sí, VEGA 10 todavía superaría a la GTX 1080 si se hubiera seleccionado OpenGL.

Sin embargo, había una advertencia importante a la respuesta de Raja. Dijo que VEGA 10 debería superar a la GTX 1080 con la misma resolución de 4K. Aunque, en las resoluciones más bajas donde el juego demanda menos potencia a la GPU habría menos diferencia de rendimiento entre las dos, aunque claro, nadie se gasta unos 800 euros para jugar a una resolución 1080p.

Hablando de APIs de bajo nivel, Raja confirmó que 2017 va a ser un año mucho más grande que 2016 en lo que a juegos DirectX 12 y Vulkan se refiere. Este año se espera que el número de lanzamientos de juegos DirectX 12 y Vulkan sea exponencialmente superior al del año pasado. Algo ante lo que Raja estaba claramente muy emocionado, pues AMD será la más beneficiada por ello.

vía: Wccftech

  • nem

    zassss un prototipo de vega con drivers alfa :B

    • Flauros

      Yo ya dije que aun estaba en sus fases finales y que me estrañaba que saliera tan pronto y todo el mundo espero a la presentacion del CES, yo ni me moleste en mirar, lo mismo paso con la 1080TI, Nvidia nunca a sacado una “TI” si no es en respuesta a una GPU AMD y todos trasnochando a ver una GPU que no existe xD

      • RufusNK

        La RX 490 / RX Fury (no sabemos que nombre le darán a esta cosa), ya han dicho que no estará hasta cerca del verano… de por si hay un calendario de lanzamiento para VEGA. Por ahora, y por eso esta tan censurada (le pusieron cinta para evitar que la gente fisgue y solo han dejado a muy pocas personas abrir la maquina, es mas, parece que hay cierto convenio de confidencialidad porque no pueden dar detalles de TODO lo que traerá VEGA).

        • IronMetal ツ PutoPeludo

          RX Rage

        • XP941

          “no estará hasta cerca del verano”
          No se si habrá 1080Ti pero lo que si habrá este año es gtx1100 14nm mejorado con posible hbm. Se dice que volta estará en 2018 con gddr6.
          Eso significaría que aunque amd haya hecho bien el trabajo posiblemente llegue bastante tarde.

        • Riwer

          GDDR6? en serio?

        • Herrero

          Yo tengo bola de cristal también y pronostico el futuro. Vega se fundirá a NVIDIA x 10000000000 pro infinito y mas allá.

          Por 20€ hecho las cartas xDDD

        • XP941

          Ponlo en google a ver que sale, yo simplemente he puesto aquí lo leído en otros sitios. Suelen cumplir mas los plazos que amd.

          Digo que me quedo con Ryzen pero creo que vega llegará tarde y aunque este birn le pasaran por encima.

        • Herrero

          Puede que tengas razón, o puede que no… ya sabemos lo que pasa con todo lo que no es oficial, hay que cogerlo con pinzas sea de donde sea.

          De todas maneras comparando compañias son muy diferentes… desde lo más basico como la diferencia de presupuestos, a las politicas.

          Espero que te equivoques, y VEGA llegue un cacho antes, aunque empiece siendo como unidades “limitadas” hasta que las fábricas puedan sacar en masa.

        • XP941

          Exacto, ojalá me equivoque. Si lo hago me voy a amd.

        • esteban

          gddr6? ajaj la memorias gddr ya estan exprimidas casi al máximo; si lo hacen seguro sera con HBM2 que son mas frías, consumen menos, no ocupan mucho espacio porque se integran en el chip, etc.

        • JaviTyler

          Secundo lo que dices, totalmente. Si en algo está teniendo PROBLEMONES esta generación de tarjetas es con las memorias y su disipación. Cada vez se ha ido haciendo más importante integrarlas en la disipación y cada vez dan más problemas de temperatura y rendimiento. Que se lo pregunten a algunos ensambladores de 1070s y 1080s que se les fríen como huevos…

          En cuanto HBM se convierta en el estándar de memorias (que lo hará en breve), nadie querrá dar un paso atrás y sacar cosas como la GDDR6. Y menos una empresa como Nvidia, que no piensa permitir que la competidora tenga la exclusividad de un nuevo elemento premium que ellos pueden usar también y pedir un sobrecoste por él, como llevan haciendo 10 años xD

        • Hugo Scali

          De hecho ya esta planeado el lanzamiento de gddr6 para el 2018 desde hace un buen tiempo.

        • JaviTyler

          Pues la hostia que se van a pegar como no solucionen los problemas que está dando la 5 va a ser minina. Algo me dice que el estándar HBM está a la vuelta de la esquina, simplemente por el sobrecoste que va a suponer la diferencia de diseño en refrigeración. Pero bueno, yo no soy ingeniero, así que ya veremos.

        • Hugo Scali

          Por el precio y lo difícil que es actualmente producirlo en masa veo complicado que se vuelva un estándar le tengo mas confianza a gddr6 que tiene fecha de salida en 2018.

        • JaviTyler

          Pues yo no le tengo confianza a una memoria que presumiblemente será más volátil que la gddr5, salvo que tenga planeado freír huevos con la gpu xD

        • Hugo Scali

          Pues no se sabe nada del funcionamiento real del hbm2 por el momento, se que actualmente se usa en la serie tesla pero no encontré comparaciones reales. Con respecto a las memorias sinceramente esas grandes mejores singuen siendo poco y nada realmente basta con ver las memorias rams entre ddr2 vs ddr3 vs ddr4 no hay grandes cambios que se pueden apreciar realmente aunque uses memorias del doble de velocidad en aplicaciones reales no suele demostrarse su gran incremento de rendimiento. Después de todo la memoria es un soporte para el procesador para que este consulte por información que se almacena en ella por lo cual tiene mayor relevancia el cpu (en caso de las gráficas GPU).

        • PiCh

          y por que un nuevo desarrollo de memoria de alto ancho de banda estando hbm que ha demostrado el rendimiento y consumo que tiene, podria ser por que amd fue uno de los desarrolladores y no quieran agachar la cabeza ya que hbm esta llegando a 1 tera de ancho de banda y un consumo buenisimo no?

        • Hugo Scali

          El problema con esas memorias esta en su producción en masa y su costo. Si los costos llegan a elevar mucho el precio de las gpus y realmente no hay una gran mejora en lo que respecta rendimiento real simplemente no se va usar en todas las gpus. Realmente el uso de memorias hbm y hmb2 tiene poca importancia en resolución 1080p o 1440p recién en 4k gana importancia aunque realmente no hay una diferencia muy grande ya que el factor mas importante es el GPU.

    • Jorge

      Hombre si vuelve Nem. No te veía activo desde las Fury xD

      • EpsylonRad

        NEM siempre esta.

    • Takk

      Drivers alpha… qué “raro” en AMD… una gráfica que sale con un driver sin pulir, no me lo creo xDDD

      • IronMetal ツ PutoPeludo

        Te recuerdo que no ha salido aun

        • Takk

          Ni estarán para cuando salga… a eso ponle el cuño.

        • IronMetal ツ PutoPeludo

          No, mejor pon tú el culo XD

      • nem

        sin objecion alguna NVIDIA tiene los mejores drivers desde el inicio por que invierte un paston en optimizar , otra realidad es que sus arquitecturas necesitan optimizacion por drivers mas que las de amd , y cuando pasa el tiempo y dejan de optimizar esto se ve como nvidia pierde rendimiento y amd va ganando poco a poco aparentemente y por mejoras en drivers ,

        en este video lo explica un ingeniero de nvidia como estan emulando el software por hasta un año para su arqutiectura para que funcione lo mejor posible
        https://www.youtube.com/watch?v=650yVg9smfI

        • Sergio Marquez

          Ese disipador del minuto 1:54 no es un Wraith de AMD? JAJAJA no jodas. Igual me equivoco, pero lo parece xDD

        • nem

          no lo es , parece que estaban usando un equipo oem ni la placa esta entra las que se ahn dejado ver en el ces. 😀

    • La flor de Lisa Su

      Si después de un año y con una memoria que es 20 veces mejor que la GDDR5 y sacas pecho es un problema pero gordo xD

    • alxSoft

      Correcto… aunque cabe mencionar que aun AMD va desfasada en una generación respecto de nVidia, digamos que esta generación de nVidia debería estar compitiendo desde el inicio con VEGA

      • Luis

        y Polaris?

        • alxSoft

          tomando en cuenta polaris… pero con vega empareja por muy poco tiempo!

      • nem

        bro si te soy franco creo que AMD tomo la mejor decision parece que no tenian lista a VEGA a tiempo y para no quemar el dinero han preferido retrazarla , y parece que van a aprovechar a hacer grandes cambios , el año pasado desde octubre hubo rumores que llegaba y parece que era el plan pero creo que aun era poca potencia es lo que creo que fue aunque no lo digan 😀

        • alxSoft

          Completamente de acuerdo… varias veces les paso, que por sacar cosas apresuradas… se les fue todo abajo, en este caso espero puedan ir más rápido porque desde hace bastante tiempo van desfasado y podrían ir recuperando terreno

  • Mikel

    En serio le ha puesto cinta aislante a la grafica para que no se vea la conexion de la fuente de alimentacion? Que tonteria no?

    • gasparspeed

      Todo lo contrario, asi no dan pistas a nadie (ehem NVIDIA ehem) de que estan presentando ni que traman… Mucho mejor para “pillarlos por sorpresa”… Si es que hay “sorpresa”, claro.

      • Flauros

        Lo raro es que tapen los cables cuando con todos los shaders desbloqueados esta claro que consume 300W sino mas, aunque dudo que la saquen con todos los shaders y sospecho que son mas de 4096 que son los que tiene la fury X y esta tiene el chip casi tan grande siendo una litografia de la mitad del tamaño, ahi me encaja que son muchos mas.

        • gasparspeed

          Lo claro es que usa 2 conectores, no solo 1.
          Que luego sea 6+6 o 8+6 o 8+8 ya esta por ver…
          Tambien al ser una version “alpha” y tampoco ser realmente una de referencia vete tu a saber… Pueden haberle puesto mas conexiones PCI-E para probar clocks y voltajes (junto al sensor por USB instalado, tendria sentido).
          De momento, lo unico “confirmado” es que puede correr bajo aire (porque ese disipa claramente es tipo blower de aire, no el AIO a la Fury X)

        • Flauros

          Ojala salga con los ventis de la FURY y no la caguen piniendole un mini cooler para que alcance los 100 grados, si lo hace asi tendra un buen comienzo siempre y cuando no se les suba con los precios.

        • gasparspeed

          Hombre, parece ser que usa un disipador de diseño similar/igual (luego por dentro quien sabe si lo han cambiado, probablemente si) al de la RX480.

        • Aitor Amigo

          Habrán usado pasta metálica y disipador de cobre jajaja.

        • gasparspeed

          Un peltier como en las HD 6990 xD

        • Aitor Amigo

          Yo apuesto por 5120-6144 para su versión más potente (mono-GPU).

        • gasparspeed

          No estoy seguro si llegará a tanto… Fijate que el Die en si no es tan tan grande, aun con un proceso de fabricación menor, no se yo si cabria en el chip mostrado…

        • Aitor Amigo

          Mmmm puede ser, de todas maneras compara el Die de la Fury X, todo depende del IPC que tenga. Voy a ver si por internet puedo averiguar el tamaño del die y sacar suposiones

        • gasparspeed

          Si, pero por mucho o muy poco IPC que tenga, en un espacio X no puedes poner mas de lo que cabe xDDD

        • Aitor Amigo

          Me refería por el rendimiento en si, está claro que por núcleos si tienen un tamaño concreto hay un tope y más no entra jajaja.
          Por reddit comentan que estaría entre 520-530 mm2, teniendo en cuenta que la Fury X es de 596mm2 pero el doble de proceso de fabricación… Me da un teórico máximo (si se mantuviese la arquitectura) de 7147 núcleos. No me parece muy descabellado los 5120-6144, de todas maneras son suposiciones jajaja pajas mentales.

        • gasparspeed

          Tambien hay que tener en cuenta que al ser diferente arquitectura como esta montado todo “por dentro” es diferente asique puede variar.
          Supongo que podrian llegar a 6144, pero vete tu a saber si vemos eso en la clase Mainstream-Enthusiaust… Tal vez se las guarden para las Pro y demas…

        • Aitor Amigo

          Ya por eso decía lo de si fuese misma arquitectura, a saber, ojalá no hagan un Nvidia como con la Quadro P6000 y la Titan XP, recuerdo esos tiempos en los que salió la Titan con doble precisión desbloqueada y con el máximo de núcleos.
          Que por cierto, ojalá AMD tire en doble bien con sus versiones de consumo, si es así creo que ya casi al 100% que mi próxima GPU será AMD, también por cambiar, empecé con AMD y ahora tengo Nvidia, hay que ir alternando jajaja.

        • gasparspeed

          Yo tambien, de AMD a mi GTX 970 y ahora, la proxima (pero ya tirando pa un futuro un poco lejano, que aun no he hecho ni OC a la 970…) va a AMD fijo.

        • nem

          y esta bien no cazarse con ninguna marca , aunque no sea mi caso yo si soy ROJO por experiencias desde 3dfx y lo que vengo viendo de la politicas de nvidia vs las de amd, :B

        • gasparspeed

          Si, yo siempre me he auto-denominado “fanboy de AMD” (ojo de ATi no tanto…).
          Mas que nada por las excelentes experiencias que me ha dado el Athlon 64 (si, si, superviejo y demas pero en fin…)
          Aunque ahora monte todo Intel y Nvidia (simplemente se dió la casualidad). Pero vamos, siempre me ha gustado mas AMD, en graficas no tanto, sobretodo en tema de CPUs/Placas Base y en especial en las BIOS y el overclock.
          Y 3DFX ohhh, back in the old days… Aun me dan risas cuando dicen que NVIDIA inventó el SLI, esos no conocieron la Voodoo 2 xDDD

        • JaviTyler

          Yo a una hipotética versión de 6144 le pondría refrigeración por turbina Rolls Royce xDD

      • Plabo Roca

        Pillarlos por sorpresa te suena la frase ” espionaje industrial “

      • cansado

        No hay forma de que AMD pille a Nvidia por sorpresa, Nvidia lleva recortando y guardando chips desde hace años, mientras AMD viene con la lengua afuera poniendo nombres llamativos a sus drivers jajajaja.

        • gasparspeed

          O mas bien, NVidia se ha marcado la de Intel y ha estado rascandose los huevos sin competencia.

        • cansado

          La serie TITAN es prueba de ello, antes de Kepler, te vendían el chip más potente en una x80.

        • Sergio Marquez

          Yo creo que ambas. Pero vamos, tengo claro que Nvidia está preparada, si llega el día que AMD saque una GPU que plante cara a la gama entusiasta de Nvidia, al día siguiente tenemos una 1090 xD

        • Herrero

          Seguro que estas tán “cansado” de ser un poco troll fanático de algunas marcas xDD.

          ¿Que os motiva a los de tu gente a trollear todo lo que pillais de otra marca? ¿sobretodo si teneís la marca que gustais en vuestros PCs?

        • IronMetal ツ PutoPeludo

          Mira su “firma de usuario” disqus, después mira la mía XD

        • nem

          lo paradojico es que CANSADO va con micro INTEL y sus graficos integrados no tiene grafica dedicada es algo que ya lo ha comentado por aqui varias veces, lo que es respetable yo no digo nada de eso ,

        • elpokor
      • Riwer

        Hombre, “pillar por sorpresa” es algo que se hace adelantandote, no llegando 8 meses despues xD

        Y si Nvidia no ha sacado aun la 1080 ti es precisamente por esperar a Vega

        • IronMetal ツ PutoPeludo

          ¿Y si sale para competir con Volta? Eso sería adelantarse a Nvidia

        • Riwer

          Si, en ese escenario si, pero eso es imposible.
          Porque en esta misma noticia ves que se enfrenta a Pascal

          Luego estará la 1100 (Pascal 2.0) y luego Volta en 2018.
          Vega no competeriá con Volta.

          Esta será una Fury X algo por encima de la 1080, nvidia sacará la 1080ti para compensar, y despues será vega vs Pascl 2.0 (1100)

        • Lluques

          Bueno al paso que van (llevan saliendo rumores de vega desde hace meses ya) igual si que viene a competir con Volta en 2018

        • Riwer

          Oye pues ojalá, porque si saca una arquitectura que es como la que será Nvidia dentro de 2… si que iba a espabilar a Nvidia si xD

        • IronMetal ツ PutoPeludo

          Se enfrenta a Pascal porque es lo que hay actualmente en el mercado. ¿Pascal 2.0 cuenta como Maxwell 3.0?

        • Riwer

          Puedes contarlo como quieras xD
          El caso es que probablemente el panorama en rendimiento no vaya a cambiar.

          Aunque bueno, tal vez si esté bien contarlo como Maxwell 3.0.

          Ya que Pascal ni existia en la hoja de ruta, pero se ve que ante Polaris Nvidia decidió guardase Volta y sacar Pascal.
          Y si ahora retrasa Volta a 2018 para traer un Pascal 2.0 es que va como 10 pasos por delante.

        • IronMetal ツ PutoPeludo

          10 o 100! O están desarrollando una arquitectura nueva intentando alcanzar a AMD en cómputo asíncrono por hardware y se les está atragantando, ahí son ellos los que van 10 pasos por detrás

        • Riwer

          En serio?
          Aparte de que no te voy a poner enlaces explicandote que el “async compute” es una forma entre muchas de computacion ( y que Nvidia decidió apostar por el “concurrent compute”), te parece a ti que traer refritos y aplastar a la competencia guardandote lo potente es atragantarse con algo? xD

        • IronMetal ツ PutoPeludo

          Ya me leí en su día el método Nvidia comparado con el método AMD, así que no me pongas enlaces, sé lo que hace y cómo lo hace cada una

        • Riwer

          Entonces no caigas en el marketing, porque en la practica es lo mismo y depende de como se implemente.

          Pero luego en 3Dmark todos llorando porque incluso con async gana Nvidia.
          Y crees que eso es diferente en juegos?

          http://images.anandtech.com/graphs/graph10486/82854.png

          Hablamos de atragantamiento? venga ya tio.

        • IronMetal ツ PutoPeludo

          El TimeSpy, el cual se desarrolló sin adaptar el 100% de las posibilidades de DX12 para que Nvidia no quedara en ridículo, gran ejemplo (de maletines)

        • Riwer

          Ahora “explicamos” hechos con conspiranoias?

          3Dmark vive de la imparcialidad y no veras un solo argumento coherente respaldando semejante falacia.

          Lo que pasa es que si sabes la historia, cuentala bien.
          AMD fue la primera en usar computación asincrona, y los juegos que la aprovechaban forzaban su activacion en Nvidia. Lastrandolas de gran manera.

          Hasta que Nvidia capó el async en maxwell via driver y realizó su computación asincrona (concurrent).

          3D mark soporta AMBAS y esa es la unica realidad, que en igualdad de condiciones hacen lo mismo. No exactamente igual, pero si procesan ambas la computación asincrona

          De hecho esa historia ahi murió, porque los fanboys rojos ya no tenian donde agararrse.

        • IronMetal ツ PutoPeludo

          3DMark vive de la imparcialidad, seguro que sí… pues ya hubo cosas turbias en el pasado. Conociendo a Nvidia y sus políticas son capaces de cualquier cosa

        • Riwer

          Si quieres apoyar una conspiranoia con otra es cosa tuya.
          Pero entonces el tema no deja de ser muy simple.
          El test es una prueba sintetica que tiene que procesar la gráfica, y quien es capaz de hacerlo mejor ofrece el mejor score.

          Maxwell no soportaba el async compute, y por eso te veias comparativas con async vs maxwell. Desde Pascal (que si lo soporta, como para que vengas a decir movidas) que no ha vuelto a haber una comparativa asi por este mismo motivo (ya no tiene sentido).

        • IronMetal ツ PutoPeludo

          El tema es que aunque haya pruebas fehacientes son conspiranoias, pues muy bien. Mejor dejamos el tema, yo he venido a hablar de mi libro Vega

        • Riwer

          Son conspiranoias precisamente porque no hay pruebas fehacientes, por haber no hay ni pruebas de ningun tipo.

          Pero si, mejor dejarlo.
          Diria que es culpa mia por meterme cuando reconoces no ser imparcial, pero reconoce que ahora me has buscado tú xD

        • IronMetal ツ PutoPeludo

          Realmente es fácil deshacerse de las pruebas. ¿También eres de los que no cree que GameWorks destroce juegos para la competencia?

        • Riwer

          Deshacerse de las pruebas?
          Vamos a dejarlo anda xD

        • LaVerdadEsLibertad

          Es un famboy chistoso de por aqui, a cada uno que opina/critica lo que hace amd sale a decirle cosas xDD jajajajajajaja

        • Flauros

          Me gustaria ver como estarian sin las tecnologias que a traido AMD, estarian aun con DDR2 xD

        • Riwer

          No me malinterpretes.
          Terror si no estuviera AMD y ojalá le haga bajar unos cuantos escalones a Nvidia, que si se cae por las escaleras de paso, me alegraré xD

        • Flauros

          +1 no quiero que AMD tumbe a Nvidia quiero que la baje del burro y haya competencia sana y precios realistas.

        • raven_bbp

          Otro lo habría hecho tarde o temprano, eso es cómo decir que sin SEGA las consolas jamás habrían tenido acceso a Internet.

        • Flauros

          No es lo mismo, el acceso a internet ya existía Gddr5 y sobretodo la tecnología HBM raro lo veo que hubiese existido, quizás algo parecido pero no lo mismo

        • Plabo Roca

          Pero si no puede ni con Pascal de que éstas hablando

        • La flor de Lisa Su

          Pajas mentales del chaval jajaja

        • elpokor

          https://youtu.be/H0gKK-lu8eQ?t=9

          Nvidia se regatea a sí mismo! fichálo papá, fichálo

        • gasparspeed

          Bueno, me refiero a que la grafica rinda mas de lo previsto (o de lo que prevee NVidia).
          Que den una sorpresa, vamos. Sea en consumo, potencia, precio, o lo que sea xD

    • IronMetal ツ PutoPeludo

      Para no revelar ningún dato de un producto que está en desarrollo, tiene toda la lógica del mundo, aunque podrían haber usado un método menos cutre

      • RufusNK

        El método menos cutre ha sido no mostrarla abiertamente, solo mostrarla a algunos medios bajo acuerdo de confidencialidad. Y es que AMD no ha dejado hablar a nadie sobre ciertos detalles, eso si, ya se a visto el tamaño que tendrá la GPU, y es que AMD no ha dudado en mostrar como sera la GPU bajo el disipador de las VEGA.

        Pensad que están a 6 meses de lanzar el modelo definitivo.

        • La flor de Lisa Su

          Después de 6 meses con pascal 2.0 ya no sirve de nada sacar esa gráfica o la sacas muy barata y con una potencia brutal o te comes los mocos otro año mas.

    • Sergio Marquez

      Igual nos cuelan un doble conector de 8 pines así de jajas.

  • Flauros

    Decir tambien que en la entrevista los chicos de PCWorld dijeron que claramente Freesync estaba ganando la batalla a Gsync y que si cree que Nvidia daria soporte de dicha tecnologia (LIBRE) para sus GPUs y a Raja se le escaparon las lagrimas de la risa.

    • JaviTyler

      No me extraña…es que en unas pocas cosas Gsync es superior a Freesync (como pasa siempre con tecnologías opuestas que buscan el mismo fin), pero en el cómputo general Freesync es mejor por un ligero margen a un precio infinitamente menor, y eso tiene que caer por su propio peso, y más aún tratándose de un componente infravalorado a menudo como son los monitores.

      Eso sí, si yo fuese CEO de AMD, les daba soporte sin límite…eso sí, que paguen cuota de patente: que por cada gpu y monitor que Nvidia venda, los inventores se lleven su parte correspondiente. Y si no pueden mantener los precios competitivos por eso, que se jodan y bailen.

      • chalx5011

        La gracia es que FreeSync es libre y Nvidia lo podría usar sin pagar nada, justamente no le da soporte por eso, porque ellos no se llevarían nada de dinero con FreeSync.

        • JaviKillTheTime

          la mejor respuesta es no comprar nada con gsync, verías como aceptarían pasar por el aro del freesync.

        • Flauros

          Pero por desgracia siempre habran FanBoys.

        • JaviTyler

          Demasiado buenos son, que ya parecen tontos a veces. Muchas veces se dice que las empresas no son ONG’s, pero AMD a veces parece que tiene vocación de ser una. Vivimos en unos tiempos donde una empresa con logo mordido y alma negra ha llegado a patentar un “diseño” de smartphone y se está crujiendo a demandas por patentes cada semana…y AMD tiene que defender su terreno con lo bueno que van sacando.

          La tecnología libre es el germen del progreso, eso todos lo hemos aprendido ya…pero cuando enfrente tienes a un gigante verde que juega sucio cada vez que puede, no hay más remedio :/

      • Flauros

        Asi tendria que ser, si es que parecen masocas.

      • neo3587

        Freesync es solo un apodo que le ha dado AMD al VESA adaptive-sync, el cual es un estándar completamente libre, no tienen ningún derecho a pedir cuotas por ello, por otra parte, nVidia debería darle soporte de una maldita vez.

      • Takk

        ¿Mejor en qué exactamente? Jajajajaja, digan que más barato un scaler distinto que un módulo entero… pero ¿mejor? xDD

        • JaviTyler

          Ve a ver unas cuantas reviews de tíos que saben del tema, te lees unos cuantos artículos donde comparen el Gsync y el Freesync y después vuelves.

          Si pones en una balanza los dos sistemas SIN tener en cuenta el coste económico, FS gana por poco a GS gracias a su capacidad de implementación. Y no lo digo yo, lo dicen los tíos que saben más que tú y que yo y que por eso cobran.

    • ikergarcia1996

      Normal, yo tengo una 1080 y me he comprado un monitor con freesync por que la versión gsync constaba más del doble… Gsync es mejor, pero o le bajan el precio o el mercado se va a llenar de monitores freesync y cuando la gente actualice su GPU se pillará una AMD para aprovechar su monitor.

      • JaviKillTheTime

        bueno, gsync en si no es mejor, de hecho la forma en la que trabaja gsync entorpece más que la de freesync, hay un par de cosas en gsync que si pueden resultar mejores, pero por el resto de cosas freesync es superior y no solo en el precio.

        • ikergarcia1996

          Mejores latencias y funciona en todos los juegos, gsync es superior, pero el precio es una locura.

        • JaviTyler

          Ojo con el tema de las latencias, que ya se ha demostrado que los resultados son sumamente volátiles. La diferencia es mínima en muchos casos, pero añado una cosa más: Gsync tiene una flexibilidad mucho más limitada, y no funciona con tecnologías como Smart Insight (que algún día se adaptará en generalidad), una aplicación que potencia la visibilidad y aplicación de color, brillo y gamma instantánea.

          A lo mejor ando equivocado con lo de las latencias, pero el tal Linus lo hizo hace tiempo en un vídeo que me pareció muy correcto, (aunque ya es un poco viejo y tiene año y pico).

          De todas maneras, si hablamos en tu caso de barbaridades como EL DOBLE…pufff, por más bueno que sea, el doble es demasiado :/ Yo iré de cabeza a por un monitor de gama básica-media, y tengo claro que será algún AOC, LG o cualquiera de esos con Freesync ^^

        • Más verde que Linus… Y encima dijo que FreeSync era mejor.

        • JaviTyler

          Eso me digo a mí mismo. Para que tíos que se han declarado abiertamente pro-Nvidia (e Intel) en vídeos con millones de visitas se estén desdiciendo a sí mismos y apostando por AMD, algo muy bueno deben estar haciendo. Y esos tíos saben muchísimo más que nosotros: no porque sepan más que muchos de los que estáis aquí, sino porque la posición a la que han escalado les permite tener un acceso informativo del que todos aquí carecemos. Yo me guío por eso, la verdad.

        • XP941

          Lo que no va a hacer es limitarse a NVIDIA y perder el resto de gente.
          Es como si eres un youtuber sobre futbol y te dedicas a hablar del Atlético Bilbao. Lo que da ganancias es hablar de todos lo equipos. Eso no significa nada. Bueno si, que no es tonto.
          Pero cuidado que él no lleva ningún logotipo de AMD.

        • JaviTyler

          Pues hay muchos por ahí que se dedican a hablar únicamente de AMD/Nvidia, y gente como Jay han tenido épocas donde lo único que podías ver en sus vídeos era el color verde. Basta con entrar a su canal y ver sus vídeos.

        • elpokor
        • Surah
        • Jorge

          Creo que lo he visto. Usaba una cámara profesional que capturaba no sé si 1200 fps o algo así. Las latencias generalmente favorecían a gsync salvo en algún título. Pero como bien comentas la diferencia era poca.

          Sinceramente, lo mejor ahora mismo si tienes potencia gráfica de sobra es Fast Sync xD

        • JaviTyler

          Pues también, pero claro…a nivel de usuario estándar sigue siendo la comidilla (que tampoco lo entiendo…si vas justo de pasta te vas a Freesync y punto XD)

          De todas maneras, yo no soy entendido en el tema, pero gente que lo ha probado, ha reportado que Fast Sync no es tan bueno como parece: en muchos títulos no funciona bien, y tienes que tener mucha potencia gráfica de sobra, porque si tu gráfica no saca 2 ó 3 veces el número de frames de tu display, vas a ver las cosas raras. También se ha comentado que da problemas en configuraciones mono-gpu, mientras que casi todas las albricias recaen en configuraciones de SLI.

          Al final, la respuesta actual de Nvidia ante la sincronización y mejora visual de sus equipos es: o te gastas el doble en un monitor con Gsync, o te gastas mucho más en pillarte un SLI de 1070s ó 1080s XD (y de nuevo tenemos que cagarnos en todo porque no permiten SLI de 1060s, no vaya a ser que pisen a su niña bonita xD)

          Joer, ya me callo, porque cuanto más hablo de estas cosas más rojo me vuelvo mientras pienso el dinero que tengo en la cartilla del banco Jajaja

        • Jorge

          Te comento que yo tengo un display 75 Hz, y Freesync funciona bien a partir de 75 fps. Ni más ni menos. Añadiendo mucho menos input lag que gsync y freesync. Sinceramente prefiero ahorrarme el precio de estas tecnologías e invertirlo en potencia gráfica

        • JaviTyler

          Hombre, eso todo el mundo…pero por eso digo que si no tienes dinero para invertir en más potencia gráfica, Freesync de cabeza porque su punto fuerte es que prácticamente no tiene sobrecoste (hay monitores freesync muy baratos).

          Lo que sí no entiendo es a la gente que se compra pc nuevo y se va a por una 1060 con un monitor Gsync, cuando por el mismo precio puede pillar un monitor “normal” (un pelín mejor con suerte) y una 1070 :/

        • JaviKillTheTime

          hablas por el ghosting que había hace unos años? por que en la actualidad está solucionado, lo de funcionar en todos los juegos es según tu lo configures en ambas tecnologías, en otras palabras, ambas tienes que activarlas en sus respectivos paneles de control, no es el software el que tiene control sobre dicha tecnología, es el controlador de la GPU el que lo tiene.

        • RufusNK

          Solo voy a decir… OBS… ese programa que mucha gente usa para capturar vídeo… con G-Sync no trabaja muy bien que digamos… Y tampoco sirve de una mierda si juegas en ventana XD

        • ikergarcia1996

          Bueno, teniendo shadowplay a no ser que te dediques a hacer streaming y quieras poner 1000 cosas por la pantalla no necesitas OBS xD

    • IronMetal ツ PutoPeludo
      • gasparspeed

        Raja es un locuelo.
        A este punto ya se ha convertido en un meme con patas, ya le importa todo bastante poco, va ahi de risas y ya xDDD

    • RufusNK

      Veamos… un monitor Freesync vale 255€ (parten de los 125€) para un AOC G2460PF 24″ LED 144Hz, uno G-sync del mismo fabricante y características son 419€ (AOC G2460PG 24″ LED), estamos hablando de casi el doble de precio.

      • JC Denton

        AOC nunca mas!, ni con un palo, tengo uno 1080p y tuve que comprar otro porque no lo soportaba mas…

        • ikergarcia1996

          ¿Que le pasa a AOC? Mi monitor es AOC y aún no ha explotado xD

        • JC Denton

          Perdio colores, cuando estas en una escena oscura se nota el sangrado debajo, la nitidez comparado con otros monitores TN es horrible, le sumo las lineas que aparecen de la sincronía, cuando cambias a gris con blanco se notan…

          Lo he comparado con otros monitores, hasta con unos benq de 19″ y eran mejores en todo sentido, ahora lo tengo como monitor secundario, compre un LG ips.

        • ikergarcia1996

          Bueno, en mi caso he comprado un 2K 144Hz por 299€, por lo que no esperaba que fuese demasiado bueno xD Pero está bastante bien, eso si, la configuración de fábrica del monitor penosa, pero ajustándolo a mano he logrado que se vea bastante bien (tengo dos pantallas y la segunda es IPS y al compararlos hay que fijarse mucho para ver la diferencia). La única pega es que cuando la pantalla está entera negra se nota que la zona central tiene como más luz, pero solo se nota al estar la pantalla negra al 100% a si que no me importa demasiado. Yo estoy contento, por lo que me ha costado esta de puta madre.

        • JC Denton

          Eso que dices, que se nota mas luz al estar la pantalla negra se llama sangrado “bleeding” y es lo mismo que noto pero en la parte inferior, igual es un 1080p y aunque hay mucho mejores, como monitor secundario sirve igual.

          Todo aquel que me lea, recomiendo para 1080p monitores Asus, Lg, Dell, en lo posible IPS no compren otras marcas como AOC porque lo lamentaran, al menos que solo los usen para navegar.

      • Devium

        No es que sea el doble siempre, es que el módulo te lo venden 200€ más caro, en tu ejemplo da la casualidad de que es el doble, por ejemplo tienes el ASUS PG278Q (Gsync) por unos 698€ y el Asus MG278Q (Freesync) por unos 489€

      • IronMetal ツ PutoPeludo

        Timazo by Nvidia

    • Kingpmi

      Eso es lo que dije yoo el otro día, sería el movimiento lógico. Pero creando una suya

  • JaviTyler

    El Chapuzas en su línea…pero luego ves que Jay, Linus, Paul y todos los que se mueven por yankilandia están que no cagan con lo que va a traer AMD y es imposible no hypearte.

    Como el hype quede en humo de nuevo, AMD se puede ir a tomar por saco perfectamente, pero como esto sea volver 10 años atrás en el tiempo, ¡Ay, mamá! Espero que dentro de 2-3 meses estemos hablando de revolución roja en el mercado, y no de la hostia del siglo. Siempre lo primero es más bonito para los consumidores y el avance de la tecnología en sí. 🙂

    • Flauros
    • IronMetal ツ PutoPeludo

      JayTwoCents y Linus son muy pro-Nvidia, así que si ellos están que no cagan debe ser un bombazo

      • JaviTyler

        Yo sigo a Jay incluso en Twitter porque me cae simpático, y el tío sigue aún tocándose por las noches con la RX 480 GTR que le dieron xD

        • Aitor Amigo

          Exacto, que use Titans en su Torre no significa que sea pro-Nvidia, lo que pasa es que tiene mucho trato con EVGA y por eso puede dar esa sensación, pero yo no lo veo fanboy vamos.

        • ikergarcia1996

          Como para no, le mandaron una de las mejores 480 que existe, ocea una barbaridad, ese chip estaba elegido a mano para mandarlo para review xD

        • Brookun

          Entonces espero un imponente bajada de las 1080…si tan perfecta es la VE(r)GA sería comprensible una sorprendente bajada de precio…a no ser que VEGA valga a precio de oro.

        • ikergarcia1996

          Si, ya que en respuesta a Vega saldrá la 1080ti, que no costará mucho más que la 1080 de salida y hará que esta baje 100-200€. Vamos, lo que ha pasado en las dos generaciones anteriores.

        • Brookun

          Genial para mí ya que la KFA2 HOF costará menos por ésa lógica…no si al final le deberé dar las gracias a una compañía que odio (junto con HP)

        • IronMetal ツ PutoPeludo

          ¿Odias a AMD? Tú eres más de sobreprecios y tecnologías propietarias, ¿verdad?

        • Brookun

          Odio a quién me falla 2 veces, con una reparación incluida….por no hablar de las restauraciones de sistema que he debido hacer cada vez que a mi AMD le daba por crashear. Si quién me ha fallado se llama HP y AMD pues mi gusto no lo tienen. Eso sí, que sigan sacando cosas las cuales la gente flipe de lo “geniales” que son. Yo no me voy a creer eso, yo sólo veré mi presupuesto bajar de precio y me hypearé más.

        • IronMetal ツ PutoPeludo

          Ah, ya me acuerdo de ti, tú eras el que no tenía ni puta idea de informática! Bueno, ya estaba todo dicho

        • Brookun

          Con tu gran educación sí…
          Sólo detesto que me fallen más de una vez cuando doy una segunda oportunidad. Cuando me pire de mi mierda no vuelvo a la marca ni loco…Lo siento, soy un cliente,mejor dicho un usuario,decepcionado con la marca. Con ambas de hecho por no tener claro de quién es el responsable de tal deshonra para la tecnología. “Ni puta idea” por estar indicándome y no querer tu elección. Con eso te has desacreditado, lo siento pero hay cosas que debes tener en cuenta antes de hablar. Creía que todos los metaleros éramos respetuosos,veo que no 🙂

        • IronMetal ツ PutoPeludo

          Perdona, a veces me expreso muy vehementemente, lo he escrito tal cual me ha pasado por la mente

        • Brookun

          Al PC le sucede que cuando le intento instalar el programa de los drivers de AMD, crashea.
          Sabes que en Steam está la opción de actualizar los controladores o algo parecido…¿no? Pues yo lo iba a hacer cuando en mitad de la instalación… Pantalla en gris.
          Reinicia, reinicia,vuelve a reiniciar…Hasta que me sale lo de restaurar sistema.Tengo pavor de volverlo a intentar desde aquella vez. Eso fue lo último que me pasó. La reparación pues en pocas palabras: PC moribundo,casi muerto.no sé si aún tengo el análisis de los errores del PC que hicieron los de la tienda.

        • IronMetal ツ PutoPeludo

          Nunca he visto nada de instalar controladores desde Steam, yo no los actualizaría así. Ya te dije, yo me desharía del sistema operativo pre-instalado por HP porque es una versión de ellos personalizada con su recuperación de sistema y sus mierdas, y le metería un Windows 8.1 o incluso Windows 10 desde cero. A partir de ahí seguro que no tendrías problemas instalando los drivers que necesite

        • Brookun

          Cuando en la tienda me arreglaron el PC me desinstalaron el SO y me instalaron W10. El crash con pantalla en gris vino después de la reparación. Steam tiene una opción para actualizar los gráficos me parece, ahora llego a casa y te digo qué es exactamente.

        • PiCh

          hp es la marca porculera por excelencia no me extraña que hayas tenido problemas pero ahi creo que no tiene nada que ver amd , mi hermana cualquier dia tira su hp por la ventana

        • JaviTyler

          Ya ves. Me vi la review y cuando la puso a 1400 y pico y la puta tarjeta no subía de 60-62 grados y chupando menos de 130w yo ya flipaba…Creo que no me dará el presupuesto para subir de una rx 470 decentilla, pero como tenga algún ingresillo imprevisto y pueda permitírmelo, iré a por esa tarjeta de cabeza. Pata negra, la verdad O.o

        • IronMetal ツ PutoPeludo

          Es un salao, yo me parto con los comentarios que hace en sus vídeos

        • JaviTyler

          Yo me trago todos los comerciales que hace con sus colegas. El de navidad con el negraco no tiene desperdicio jajaja

        • IronMetal ツ PutoPeludo

          ¿En el que miran para abajo para comparársela, y luego son cajas? XDDDD

        • JaviTyler

          Dios mío, es genial jajaja

      • Albert

        Linus subio ayer un video donde compara dos pc’s supuestamente iguales menos los procesadores, que supuestamente son el I7-6900 y el nuevo Ryzen y segun entendi dice que no hay casi ninguna diferencia en el Battlefield 1 en 4K.

      • Mario Fernando Valenzuela Alem

        Linus puede decir misa, las comparaciones que hacía desde que empecé a verlo en la época de las AMD 6000 series eran de risa, se le veía demasiado el plumero verde.

  • Pingback: Título del sitio()

  • Kmy_kun

    haciendo mis calculos en base a una publicacion típica de rendimiento de una tarjeta de amd de borja en el chapuzas diria que mmm: ……. la gama alta de amd rinde como una 1070 en 4k y levemente superior a la 1060 en 1080p

    • Pelayo (antes Anónimo)

      La 480 actualmente es levemente superior a la 1060 en 1080P

      • Kmy_kun

        la 1060 sigue siendo superior en mayor cantidad de juegos.

      • La flor de Lisa Su

        En que juegos xD

    • IronMetal ツ PutoPeludo

      Lo de que Vega tenga un 77’7% más de shaders que Polaris (4096 vs 2304) aparte del resto de cambios en la arquitectura para ti no tiene efectos en el resultado

      • Kmy_kun

        yo solo estoy aplicando regla de tres al “la rx 480 incluso seria tan potente como una 980 ti ” del chapuzas hace unos meses atras

        • IronMetal ツ PutoPeludo

          Sí, un rumor de la prensa amarilla del hardware que se publicó aquí, esos que hay que coger con pinzas. El caso es que ahora sí puedes hacer una regla de tres con el rendimiento de la RX 480 y aun así te quedarías corto, porque la arquitectura es distinta

  • ikergarcia1996

    Desde luego, si con un 60% más de núcleos y memorias HBM2 no superan a la 1080 es como para plantearse seriamente el seguir diseñando GPUs… Ahora bien, en las pruebas de rendimiento que han ido enseñando rendía como una 1080 con un ligero OC, espero que mejoren eso, si no, les va a pasar lo mismo que con la FuryX, 1080ti y adiós Vega, y mi monitor freesync no quiere que eso pase xD

    • Flauros

      Esperemos que no, de momento esta en una fase temprana sin pulir nisiquiera BIOS ni Drivers, yo diria que esta como mucho en un 70% de maduracion.

      • ikergarcia1996

        Mientras no tarden 3 años en “madurar” los drivers…

        • Flauros

          Sabes tan bien como yo que AMD se a puesto las pilas en los drivers ino mira la mejora de la 480 en tan poco tiempo.

        • ikergarcia1996

          Han tardado unos cuantos meses en pulir los drivers para Polaris, yo si actualizase, compraría la gráfica que el día de salida rinda más, por que al año siguiente la voy a volver a cambiar a si que me da igual si madura o no. Y ese es un fallo grave que tiene AMD, si, la 480 a día de hoy es mejor opción que la 1060, pero cuando salió no era así, y todas las reviews dicen que la 1060 es mejor, por lo tanto es la que más ha vendido y de poco sirve que varios meses después la cosa haya cambiado…

        • IronMetal ツ PutoPeludo

          Puede que cueste más tiempo desarrollar controladores teniendo menos pasta y personal que la competencia, llámame loco

        • ikergarcia1996

          Evidentemente, pero ese no es mi problema, yo soy un cliente y busco el mejor producto, lo que pase con las empresas que hay detrás me da exactamente igual.

        • IronMetal ツ PutoPeludo

          Pues compra Intel y Nvidia

        • JaviTyler

          Aquí le doy el minipunto a Iker, porque creo que tiene mucha razón. La mayoría de la gente que estos meses ha ido a comprar una tarjeta se ha pillado una 1060. A partir de ahora AMD le puede ir recuperando ventas a Nvidia, pero durante estos meses toda la gente que sigue reviews se ha pillado la verde.

          Otra cosa son los que sigan viendo reviews y ahora estén cagándose en la puta por haber comprado la 1060 porque la polaris era peor XD Igual para la próxima se lo piensan, o igual caen en una espiral negacionista y culpan a AMD de la situación, rechazando sus productos porque no saben cuándo madurarán :/ A fin de cuentas, hace 4-5 meses la 480 pintaba bien jodida xD

        • Flauros

          yo si cambiara cada año me compraria una top de Nvidia sin pensarlo pero AMD va destinado a un publico distinco que cambia cada 2 o 3 años, es menos ventas si pero es mas gente la que estara interesada siempre y cuando AMD lo haga bien.

      • RufusNK

        Yo diria que el 60%… lo que han llevado al CES es una unidad de prueba y desarrollo. Para nada es el modelo definitivo, es mas se lo explican a Linus, que el puerto USB 3.0 del PCB de la grafica es para conectarla a los equipos de pruebas, para registrar voltajes y temperaturas.

        Aun asi, siento un prototipo, sin Bios terminadas ni drivers adecuados, te menee a 4k y 60~70 FPS Doom 4 da que pensar… ¿Es posible que VEGA rinda como 2 Polaris o incluso mas que la mayoria de Pascal?

        Eso lo sabremos en Verano.

        De paso, ese PC también tenia como CPU una unidad Ryzen (Zen 8 Núcleos)… vamos, que no solo han ido a mostrar GPU, si no tambien sus nuevas CPU (esas las tendremos a final de mes o febrero a mas tardar).

      • Django

        Tambien supongo que sera lo mismo que con polaris, esta es la version “founders” las versiones personalizadas seran algo más potentes

        • Flauros

          No creo, lo que si seran es mas frescas y vendrán con mas OC por lo que en si seran mejores.

  • Plabo Roca

    Me late que la parte oculta trae algo que le falta al nombre
    Radeon Fury x2

    • RufusNK

      RX Fury… es posible… es mas yo diría que es viable.

  • IronMetal ツ PutoPeludo
    • ikergarcia1996

      Raja es la 1080 y la chica de delante Vega 10 xD

      • Flauros

        ah que eso es una chica?

    • nem

      jajjaja , joer estoy que no me lo creo que el prototipo tenga turbina , nada de water cooling

  • Javier SP
    • Flauros

      Pa la impresora xDDDD

    • Andres Sanchez

      Es para que la gpu use el Readyboost xD

    • IronMetal ツ PutoPeludo

      Para que los ingenieros monitoricen en tiempo real el funcionamiento, es una muestra de ingeniería, eso en el modelo final no existirá

    • ikergarcia1996

      Muestra de ingeniería, es simplemente para que los ingenieros puedan sacar datos que necesitan.

    • Aitor Amigo

      Para recoger data de la GPU, parámetros y demás cosas, lo explica en el vídeo de linustechtyps:
      minuto 4:10
      https://www.youtube.com/watch?v=Y8tDaPLHxiE

    • D1X0N

      Yo diría que pinta esa disipador tan pequeño, me da ganas de llorar

    • Wedge

      Para descargar los planos de la Estrella de la Muerte

    • nem

      puede ser para debugger es un prototipo , las muestras de ingenieria , ejem en polaris tenian unos picos donde antes iba el puente crossfire una conexion que en no esta en la version final

    • Burn Thegames

      La gpu no es muy ancha?

      • IronMetal ツ PutoPeludo

        El PCB agregado a la derecha sobra, es el extra de fase de desarrollo con el puerto de comunicaciones, la gráfica en sí es hasta donde está pegada la cinta adhesiva por arriba

  • JJ Marín

    Bueno sera mejor que la gtx 1080 pero seguro que la 1080 ti es mejor, van mejorando pero no pillan a nvidia todavía esperemos q al final se den la mano ….

    • cansado

      Nvidia tiene el GP102 y seguro esconden el GP100 porque no lo necesitan, mientras venden como locos.

  • Raul

    Fijaros con los conectores de la fuente es lo único que no está tapado yo apostaría que está entorno los 300w o un pelín menos.

    Ojalá AMD lo haga bien ya que al fin al cabo nos beneficia a todos en cuanto a los precios

    • Flauros

      son 8+8 pines pero esta en fase temprana AMD intentara reducir el consumo Puliendolo mediante BIOS entre otras cosas, yo apostaria a 8+6 y que quizas veamos ensambladoras top que le metan 8+8

      • Raul

        Si perdón por no aclararlo me refería de cara al final ya que si supera la barrera de los 300w hoy en día sería excesivo.

        Ojalá rinda bien y haba bajar del burro a los de Nvidia ya que este año tengo que intentar renovar mi gtx 670 que la pobre ya le toca. Sinceramente no soy ni una marca ni la otra, la que esté mejor en euro/rendimiento es la que me llevaré.

        Saludos

        • Flauros

          Yo apostaria que cuando este en su fase final con sus drivers optimizados sin OC no creo que suba de los 225W

  • cansado

    Le ganan en dos juegos al recortado GP104 y lo celebran xD

    • Flauros
    • laviejadelvisillo

      Le ganan en 2 juegos a la mejor tarjeta grafica que puedes comprar a dia de hoy, es para celebrarlo, claro que si.

      • ikergarcia1996

        Bueno, está la Titan X Pascal, pero si, si no metemos el tráfico de órganos por medio, la 1080 es la gráfica más potente que se puede comprar xD

      • nem
        • Varonte

          ¿Y como se puede ser “SEMI” DirectX 12?

        • nem

          creo que a todos les ha quedado claro qeu NVIDIA es SEMI DX12 , o tienes alguna duda ?

        • Varonte

          XD No sé como se puede ser “semi” DX12, ilústranos.

        • nem

          si lo que digas

        • Varonte

          Hombre, que menos que nos expliques como, ya que te esfuerzas tanto en vender, explícanos qué es el producto, o cómetelo con patatas.

        • nem

          si lo que digas

        • Varonte

          Solo te estoy preguntando jaja

          Eres tú el que dice que una gráfica solo es compatible con medio DX 12 y hasta ahora es por motivos mágicos.

          Supongo que será a tí a quien habrá que preguntar.

        • D1X0N

          Yo a este usuario no le entiendo, dejemosle con sus pajas mentales y ya cuando llegue el momento que alguien que de verdad conozca esto explique que leches es el semi dx12 xDD

        • Varonte

          jaja, Es que es muy cachondo, ¿con qué mitad de DX 12 es compatible?

          Puede que lo sea con la mitad de módulos que no tienen que ver con Direct 3d y estamos jodidos….O el está jodido, porque le toca explicar como es posible que veamos dibujitos.

        • David Mirete
        • nem

          no amigo te lo digo claramente ve la 1060 y la rx 480 , quien anda mejor en DX12 y quien en DX11 , las cosas se invierten claramente ya estoy hasta la madre de gente como el varonte que se hace el que no entiende , joder no se han puesto sufientes benchamarks en este sitio , no se necesita mas que saber como van ambas arquitecturas para pillar lo que quise decir es que joder hasta en algo qeu es tan claro salen al paso estos NVIDIA LOVERS a decir que no es verdad que me lo estoy inventando.

        • D1X0N

          Ya no es porque sea verdad o mentira es por tu actitud, cada vez que sale una noticia de lo que sea pones la tipica foto para trolear a nvidia o intel y eso hasta a mi que soy pro amd me jode, asi no esperes que nadie te tome enserio hombre de dios

        • nem

          francamente no estoy para ver si te jode o no lo que comente

        • D1X0N

          Te iba a escribir la parrafada de turno para que razonaras pero ni son horas ni tengo ganas para que luego ni lo leas y repitas otra vez lo mismo asique sere breve: con esa actitud ya te estan comiendo lo usuarios de esta web, no tardara en hacerlo la gente en tu vida real sino lo ha hecho ya

        • Varonte

          jajaja El tipo este y razonar no creo que se lleven muy allá. Se les ve enfrentados.

          Solo con que veas la edición del mensaje al que contestaste y lo compares con lo que cito…XD

        • Varonte

          “me importa una mierda lo que tu dices” Nem dixit, 17-08-1455

          Frases célebres “arsa quillo” 17ª Edición.

          https://media.tenor.co/images/f8d2aff8c951450cb98c9a3ae082c20f/raw

        • La flor de Lisa Su

          Lo dices como si en los juegos la rx480 en dx12 le saca 30 fps a las 1060 y en muchos juegos en dx12 gana la 1060 😀

        • nem

          wtf en cuales ? quantum broken y Rise TR.. 😀

        • La flor de Lisa Su

          Forza etc, tanto nivel en dx12 y en algunos juegos se come un mierda, no sacar mucho pecho que para empezar no se puede ni grabar con la rx480 con el programa que trae xD jajaj igual que shadowplay si,si.

        • PiCh

          en direct x 11 estan empatadas de media y dx 12 sale ganando la radeon

        • Varonte

          No sé que ojos tienes tú jaja o que consideras “empate”, en DX 11 sigue sin haber empate, el problema con el overhead de AMD era gordo y solucionar eso es muy jodido porque requiere una reestructuración desde cero del controlador y bastante han hecho, donde hay empate es en DX 12.

        • PiCh

          no lo he dicho yo…

        • PiCh

          esta en internet, no lo digo yo, le saca un 2% en 1080, empate en 1440p y en direct x 12 6% a favor de la radeon tanto en 1080 como en 1440p

        • D1X0N

          Pero eso es kepler y maswell, el creo que estaba hablando de pascall

        • David Mirete

          Si, pero se muestran distintos niveles de compatibilidad, que es a lo que me refería al poner la imagen. Tampoco me he parado a mirar que grado tienen pues no voy a comprar nada pronto

        • nem

          el soporte de nvidia es emulado , no tienen ACES que una parte de las arqutiecturas de Amd desde GCN 1.0 el asyn compute va por hardware en AMD y en NVIDIA va por software le llaman preemtion , ya esto tambien se ha comentado bastante y los resultados se reflejan el todos los juegos DX12,

          NVIDIA ha vendido qeu soportan dx12 pero no es a full y plenamente por hardware y nativamente como lo hace amd , y aquie es donde volvemos otra vez a la historia que niegano todos los NVIDIA LOVERS de que DX12 no se derivo de MANTLE..

        • Varonte

          Ahora te toca explicar como emulando puedes saltarte la compatibilidad.

          ¿Como es posible soportar DX 12 emulado y a la vez no soportarlo?. (es lo que quiere decir “full” o “no full”) Si…. soporta…. DX12 emulando ciertas funciones….¡Lo…. está….. soportando!, otra cosa es que sea más o menos eficiente emulado o no en qué y como. XD

          Y no es que vendan que lo soportan, es que lo soportan, solo que de un modo distinto a como lo hace AMD, lo cual no quiere decir nada de por sí.

          Respecto a “los resultados” debe ser que las gafas no te dejan ver bien que al final lo que se ve es que hasta hoy hay juegos que van mejor en una, otros que van mejor en otra y otros en los que van virtualmente igual, nada nuevo, ni criticable.

          Y respecto a lo de Mantle, ¿en qué puntos se derivó de Mantle? porque vamos, realmente es la primera vez que leo algo así XD

        • nem

          esto lo recuerdo desde cuando las graficas dx8.1 que no soportaban dx9 de cualquier forma podian correr juego dx9 por medio de emulacion claro siempre se dijo que esto penalizaba el rendimiento ¿ por alli te voy explicando ?

          sobre lo ultimo que dices parece que se comprueba qeu eres un noob en esto no ? xD

        • Varonte

          Explícame como el soporte de DX12 vía emulación no es considerado soporte y ya ¿Como el soporte puede no ser soporte?. Es tan simple como eso.

          Sobre Mantle, es que simplemente es la primera vez que leo que “DX12 derive de Mantle”

        • nem

          no me hagas perder mas el tiempo es lo ultimo que dire

        • Varonte

          Por qué no me extraña….

        • nem

          y no no creo que sean ciertas funciones esto es en el caso de AMD que no soporta raster order views y customize raster qeu son los dos efectos que tiene nvidia y lo que hacen la revision dx12.1 que maneja nvidia , creo que nvidia en sus base en el nucleo mismo del api es donde esta fallando. es que la nuevas apis son de bajo nivel lo qeu en si es que el code accesa directo al silicio algo que nvidia todavia no ha logrado , usan preemtiom pero no es async compute real , tieenn planes de irlo mejorando hablan de para pascal finest grain preemtiom , lo que dicen es evolucionar mas esta forma de manejar el codigo pero al parecer no pueden modificar tan radicalmente su arquitctura por que tendrian que botar a la basura todo el trabajo que tienen invertido en dx11 en sus arqutiecturas

        • Varonte

          El principal problema que veo ahí es que mezclan un poco de todo y te lo ponen en plan “la vida es maravillosa”…Te ponen las GCN a secas, te las sueltan, “ale son compatibles con DX 12” porque te lo digo yo, cuando por ejemplo las HD 8000 son GCN 1, y soportan hasta DX 11.1 Y la fuente de esto es la propia AMD.

          De hecho las primeras gráficas basadas en GCN que son compatibles con algún nivel de DX 12 (11.0, 11.1, 12.0, 12.1) son las R7 200…Y adivina que, son de la misma quinta, más o menos, que las Maxwell v2.

          Por no contar que la compatibilidad es algo que está sujeto al dinamismo, evoluciona y tal, con lo que ubicarlo en una tabla, ad eternum, es una quimera. Salvo que sean productos que ni se tocan con un palo…Que no es el caso.

        • Varonte

          Y eso sale de…Porque vamos, que yo me pongo y te hago otra igual XD

        • IronMetal ツ PutoPeludo

          En este vídeo, desde el min 8:00 hasta el 9:40 lo explican. En el 9:12 además encuentras esta imagen https://uploads.disquscdn.com/images/831146e62a4d64632c336c1892cb770138d86427efcd15c84cb431104c0e7928.jpg Ese 17% representa las GCN

        • Varonte

          Pero no es un gráfico que represente “nivel de compatibilidad” al menos no es lo que me da a entender el hombre que habla XD

        • David Mirete

          Cogí la primera que encontré, a partir de ahí te puedo decir que aquí se han publicado otras y en otras webs también. Igualmente me da igual, solo estaba poniendo un ejemplo xD

        • Varonte

          Un ejemplo de qué exactamente xD ¿De que las gráficas Nvidia a día de hoy no son compatibles con la totalidad de funciones principales y esenciales de DX12?

          Porque sí es así es un ejemplo malísimo….ya que muestra precisamente lo contrario. (Ni si quiera muestra Pascal)

        • David Mirete

          De lo que yo he entendido que el estaba hablando xD

        • Varonte

          Ese habla de todo, pero generalmente dice poco o nada, porque cuando no la caga, está directamente mintiendo.

        • La flor de Lisa Su

          jajajajajaja las dejado roto.

        • ibra

          No le digas que DX 12 puede ser emulado con ayuda de la cpu….Que lo mismo el chaval se piensa que ha descubierto la polvora

        • Tempo

          Es que, a ti no ay quien te ilustre campeon.

      • IronMetal ツ PutoPeludo

        Y con una muestra de ingeniería, sin drivers pulidos ni la frecuencia con la que saldrá a la venta

  • Furymole

    Q cachondos….tambien es bastante mas moderna..asi comparamos??como odian a Nvidia por estos lares…

  • Fjps

    Siendo realistas, ¿cuánto creéis que falta para verlas en las tiendas?

    • Aitor Amigo

      Viendo lo del concurso de AMD que decía que en 29 días (si no recuerdo mal) se anunciaría el ganador, pues échale mínimo un mes (cosa que dudo mucho) según han dicho tiene que estar antes de mitad de año, con mucha suerte para finales de febrero, principios de marzo, sino ya sabes que antes de julio.

      • Fjps

        Demasiado, al final voy a tener que pillarme una 1070 y mira que no me gusta la idea

        • Aitor Amigo

          Bueno yo llevo esperando actualizarme desde la 970, esperé a la 1070 y vi los precios y hasta luego, ahora mismo como si me espero hasta verano jajaja.

        • Tempo

          Pero coño, no puedes esperar un poco?

  • Pesk

    Si es así, me la pillo, pero bueno sacarse la polla contra una tarjeta que lleva meses en el mercado y esta no se sabe aún para cuando…igual se llevan una sorpresa y los verdes sacan la Ti…

    • RufusNK

      La 1080 Ti saldra antes, la VEGA no sale hasta verano… pero recuerda, la GTX 1080 Ti es una !080 Exprimida al máximo, la VEGA es una nueva arquitectura que esta al final de su desarrollo, al menos, en su 1º modelo.

      • Pesk

        Dudo incluso de que salga la Ti…no se…al final llegan tarde, ese va a ser el problema

  • Blue

    Tanto grafica y placa base son prototipos – Luego no se quejen que rinde menos cuando lo muestran en las ferias. Despues de ver las placas para AMD Ryzen que ya sacaron las marcas y son identicas a las de intel z270 creo que esta vez estara intel y amd inguales de rendimiento en las 2 plataformas incluso puede que esta vez supere a toda la gama de intel 1151 ya que mostraron rendimiento que llega casi a lo mas potente de intel en x99, cosa que en esta plataforma ya compite con los verdaderos Zen “Naples” vs x99.

  • JC Denton

    Todo muy lindo pero despues sale la GTX 1080TI y nvidia vuelve a dominar, vamos la misma desde hace 5 años…

    • D1X0N

      Seguiria siendo muy buena gráfica si el precio le acompaña

      • JC Denton

        A rendimiento similar a GTX 1080 si, eso nadie lo duda.

    • Blue

      AMD luego saca la Fury y estamos en las mismas xD – (La Titan juegan en otra liga)

      • JC Denton

        Si, lo bueno de todo esto es que bajaran precios y no sera mucho pero algo es algo, de todos modos el rendimiento al menos en Doom (juego pro amd) en 4k es muy bueno, para los que aun no llegamos ni a 2k (en unos meses si) me parece que servira.

        Vamos a la realidad, esperamos que muevan todos los juegos a 4k 60 fps, pero cuantos de ustedes aqui en ECI tiene un monitor 4k?, la mayoria aun estan en 1080p, pocos en 2k y 3 gatos en 4k, en 2k debe rendir bestial, por ahora sinceramente me la suda el 4k.

        • Blue

          Yo ahora mismo 1080p, pero en un dias esperando a que baje y se calme las tiendas de navidad y reyes ire a comprar un 21:9 LG 29UM68, 29″, Panel IPS, Ultra-Panorámico, ya que soy mucho de peliculas y juegos de coches, y entre otras cosas como trabajos en maquinas virtuales, donde puede tener en un lado una y el otro lado estar en la web ejem el chapuzas xD, en resumen a mi el 4k me la pela, ya que cuando todos lo tengan estaremos en 8K cosa que ya se usa como en japon.

      • PiCh

        Pero la titan no cuenta despues la 1080 ti acabara superandola ya que siempre a pasado lo mismo y oceara mejor que la titan.

    • Ken j. Okada V.

      Pues asi como va el asunto va a tener que sacarla a 800usd y bajar el precio de Pascal si o si.

  • Ivaner

    De lo que me alegro es de que amd vuelva y haya competencia con Nvidia que últimamente no la había y las gráficas de Nvidia estaban por las nubes de precio, y están.

    • Plabo Roca

      Solo las de Nvidia estan por las nubes y que me dices de
      las de Amd si estan con precios similares.

      • Ivaner

        Yo antes tenía amd ahora Nvidia y mañana ya veremos, es decir no es que me guste más uno que otro pero ahora mismo las nvidia están más “fuertes” que las amd y por eso me alegro de que “Vega” tenga tan buena pinta.

        • Plabo Roca

          Mi ultimo pc fue completamente de Amd lo adquiri
          cuando amd era sinónimo de precio – rendimiento
          de eso casi 4 años mi pc murio y con ella toda mi
          confianza en los productos de la marca roja

        • Ivaner

          Yo te puedo decir que ha habido épocas buenas de AMD tanto en cpu como en gpu y por el bien de todos espero que vuelva esa competencia sana para el consumidor 😉

  • Blue
  • nem
    • Plabo Roca

      Lo que lleva entre manos es un preservativo o una muestra
      de ingeniería uno no puede saberlo con lo gigolo que es

    • Tempo

      que cara de loco tiene.

    • ponme un kebahhh con salsa, doble de carne y sin tomate ni cebolla y patatas con salsa y salsa a parte para llevar.
      gracias.
      shon seihs eros.

  • nem
  • Megatrom

    8gb para 4k? Eso es muy poco hombre ..

  • GtxRemix

    Joder amd que asco das XD pareces sony hablando y alardeando……. no tiene ni el 20% de la cuota del mercado y se las da de puto xD ya veremos si les baja los pantalones.. v: que alguien les recuerde sus refritos y sus procesadores que haya quedaron en 2012. Al menos veo que el dinero ganado de apus y consolas lo invierten con cabeza -_- pero no sé si es la forma en que esta redactada pero van de sobrados cuando en 2016 casi desaparece :v

    • Mario Fernando Valenzuela Alem

      AMD ha tenido 4 años malos, y? Te recuerdo que NVidia casi se arruina sacando una gráfica que era inferior a la ATI de la época, o eso no te interesa recordarlo?

      La competencia esa buena ya que repercute positivamente en el consumidor.

      PD: Y perdona, pero ahora mismo AMD controla el 30% del mercado, le ha quitado casi un 12% a NVidia desde el 2015. http://www.anandtech.com/show/10613/discrete-desktop-gpu-market-trends-q2-2016-amd-grabs-market-share-but-nvidia-remains-on-top

    • Herrero

      Cuanto odio. Tómate una tila y releete compañero… eso no tiene que ser bueno xDD

      Del pasado y los errores se aprende, y no se si sabes que la noticia no la redacta AMD, la redactan en este blog sus responsables xDD

      • Responsables que parecen trabajar para AMD… xd

        • Herrero

          Seamos sinceros… sabemos que los medios de información deberían de ser imparciales, pero siempre al final se tira mas para ver el punto de vista de quien lo redacta, se llame “el mundo”, “elchapuzas”, “marca”, “mundodeportivo”…

          Ocurre en la TV, solo hay que ver diversos informativos de determinadas cadenas… otros mas descarados como mediasete con todo.

          A mi me gusta el futbol, simplemente verlo, sobretodo el FCB, leo algún medio pero nunca leería el “Marca”. Al igual que este medio puede ser mas parcial hacía una marca, veo otros tantos de manera parcial hacia otras y de manera mas descabellada que esta. Podría citar unas cuantas pero creo que no es el sitio.

          En cambio si que he visto despotricar a este blog a AMD con las RX y mas cagadas, y en otras no he visto despotricar contra NVIDIA por ciertas cagadas ni Intel por su “maravilloso” 7700K ni su pasta mágica, por ponerte un ejemplo.

          Yo por supuesto ya no visito esos lugares, como muchísimo alguna vez de pasada, y en donde no me siento cómodo me voy y ya está, quien no comparte mis maneras de pensar no es mi enemigo, simplemente no es para mí.

          Otros aquí simplemente en vez de irse, o de compartir de manera pacífica o sin imponer sus creencias a los demás… se hartan a despotricar, y yo ya he tenido mis broncas con algunos que hasta me han llegado a faltar a mi mismo y a mi familia por decir mis opiniones sin faltar a nadie, y ya simplemente opino, si parece adecuado perfecto, si no, ni voy a despotricar ni leches, paso y a seguir con lo mio.

          En resumen, procurar que alguien sea imparcial, maneje el medio que maneje, es imposible. Pero si que hay que reconocer los erroes de lo que defiendes cuando han sucedido, y este medio lo hace, si no que se lo digan a las RX que aquí los bloggeros la dieron para el pelo también xDD.

        • Tempo

          y tu para Nvidia. mira tu paja en tu ojo primero.

        • Perdona que te diga pero soy usuario de las dos marcas… no tengo favoritismos pero muchos usuarios se creen con la necesidad de defender la marca de lo que han comprado para autoconvencerse que hicieron lo correcto. No, yo defiendo a Vega como producto (si no mira más arriba) pero titulares como el de este hilo, sensacionalista, son los que demuestran lo que digo.

        • PiCh

          hombre cuando anunciaron la rx 480 aqui se desaconsejo su compra y parece que no nos acordamos xd

      • GtxRemix

        yaya por eso lo pongo que con la forma redactada parece que encima vayan con chulería xD pero que yo me alegro que salgan adelante y hagan algo con esto XD si tengo una 290 y he tenido 3 procesadores amd antes que intel pero es que ya es imposible mantenerse con un amd

    • Yo siempre que escribo intento expresar que AMD no es para nada la buena empresa de buenas prácticas que hacer creer… más bien, juega el papel que le está tocando jugar. Por otro lado… reza porque AMD no desaparezca porque con competencia se avanza.

  • Juan Villa

    Alguien que nos oriente. Para que un puerto Thunderbolt en una tarjeta?

    • Varonte

      Recopilación de datos, pruebas propias de muestras de ingeniería.

      Como cuando los F1 salen con armatostes en los test. XD Cosas que solo les sirven a los que piensan.

    • Mario Fernando Valenzuela Alem

      En el vídeo de Linus, este le ha preguntado a Raja que para que era y le ha respondido que como es una muestra de ingeniería, que vale para controlar tensiones y datos de la gráfica.

  • Todos tenemos ganas de que AMD pille en rendimiento a NVIDIA, pero por favor, creo que la noticia debería ser cuando va a sacar AMD su gama alta, 8-10 meses (a ojo) más tarde que NVIDIA.
    Solo faltaría que fuese más lenta que la 1080.
    Sinceramente creo que en cuanto salga esta nueva gama, NVIDIA solo tiene que sacar la TI.
    Lo único que espero que pase es que tengamos una 1080 a precios de una 1070.
    Pero es que ni en ese caso creo que NVIDIA se baje de la burra y se vea obligada a bajar precios.
    Es decir, la serie 1000 salió sobre Mayo más o menos.
    En este tiempo quién ha querido renovar su GPU en busca de rendimiento habrá ido a por la 1070/1080…
    Si ahora sale VEGA con un precio más o menos entorno a 400-500 €.
    No vería muy preocupada a NVIDIA por el tema precios. Se seguirán haciendo ventas de la 1080.
    Y en unos meses tendremos la serie 11xx o 20×0, peinando de nuevo a AMD.

    No se, me alegra ver que ya están ahí en cuanto a rendimiento, pero llegan tarde…
    Espero equivocarme y que venga una etapa en la que ambas estén a la par, obligándose entre ellas a apretar precios, si pasa eso igual hasta ganamos nosotros(consumidores) por una vez en mucho tiempo…

    • Riwer

      Depende, porque a mi lo logico me hubiera parecido que AMD hubiese esperado a la serie 1100 de Nvidia sacando modelos de Vega recortados.

      Pero si ha sacado ahora Vega, aunque sea tarde, es porque tendrá el suficientemente margen de mejora para competir ahora y después.

      Eso si, si sigue a rebufo de poco sirve xD

    • Opino como tu, sacar VEGA solo propiciará que nVidia saque la 1080ti y vuelva a ponerse a la cabeza… nuevo hito de rendimiento… nuevo hito de desoptimización en juegos de PC, a más potencia menos me esfuerzo. Deberían de haber sacado una Fury X 2.0 o algo así, a ser posible sin fallos…, y aguantar hasta Volta y que sea una carrera de verdad… casi todos los entusiastas ya tenemos una 1080 porque lleva siendo la reina desde hace 9 meses!!!!!!!!!!

      • Pelayo (antes Anónimo)

        Hace 9 meses era 8 de abril, en esas fechas no lanzaron la 1080 ni de broma xD

        • Perdón 8 meses… jejejeje, bueno en 8 meses creo que han tenido tiempo de colocar unas cuantas, a lo que yo voy es que no quedan ya muchos entusiastas con tarjeta sin renovar que puedan comprar vega

  • JJ Marín
  • Riwer

    Va crecer exponencialmente el numero de titulos usando Vulkan.
    Me he descojonado xD. Con que pase de 4 a 8 ya lo cumple xD

    Y en DirectX12 sabemos que no, que se vaya dejando las drogas, que los juegos no se desarrollan de un dia para otro y la cantidad actual es baja, pero no como vulkan.

    • Herrero

      Moriremos con DX11 entonces. Solo por el gusto de NVIDIA y de no haber creado ellos Mantle xDDD.

      Me parece que la cosa va ha cambiar mucho este 2017, ojala no me equivoque.

      • Riwer

        Cambiará progresivamente, sin duda. Pero incluso duplicar el mercado actual DX12 este año es demasiado

  • Kingpmi

    Es de suponer que a 4k y en un juego pro amd gane a la 1080, pero estaría bien saber cuanto consume, porque ya que llega mucho mas tarde, si consume mas para hacer prácticamente lo mismo jodidos estamos.
    PD: AMD no seáis cutres, y en lugar de taparlo asi, contratar a un modder que os haga un apago visualmente agradable anda..

    • Riwer

      “pa qué”.

      Si ni revisan la ortografia de las diapositivas como para poner a alguien a hacer un apaño xD

      • JC Denton

        JAJAJAJAJAJAJA +1

    • nem

      por que vas a estas jodido NVIDIA LOVER si tienes una nvidia que es superior en todo de acuerdo a tus opiniones entonces tienes lo mejor , no ?

    • ibra

      Es que no van a poner el brujer 3 para hacer una prueba en el CES…Es de sentido comun….

      • Kingpmi

        Bueno de poder pueden, aunque yo no he dicho el contrario.

  • ThePgR777 .

    Alomejor supera a la 1080 y por eso Nvidia va a sacar la 1080 Ti

    • nem

      la historia se repite , ya van como tres generaciones que nvidia vende chips de gama media alta a precio de tope de gama y solo al final vende el verdadero tope de gama

      980 vendida a precio de tope de gama 549 y luego llego la 980ti

      1080 vendida a precio de tope de gama y en poco llega la 1080ti , otra vez se ha vuelto a cagar en sus usuarios

      • Lluques

        Pero es que sería tontería sacar toda la potencia, si no hay nada de la competencia que se le acerque ni si quiera. Seria tirarse piedras a su propio tejado.

        • nem
        • JC Denton

          Y si miras bien tiene ahora una GTX 1080, asi que se quejaba y aun asi va detras a seguir comprandoles la gama media/alta JAJAJAJAJA.

        • nem

          es lo que lo hace mas incomprensible hablando del milking de NVIDIA y con una 1080 . XDD^^

        • Lluques

          No te entiendo, veo lógico no sacar lo mejor que tienes, si sacando algo inferior va a seguir siendo lo mejor que hay disponible en el mercado… y si en algun momento futuro hay algo que haga frente a lo que ya tienes en el mercado pues te sacas el AS de la manga y punto

        • nem

          ok en ese sentido puede qeu tengas razon , pero los precios cada vez mas altos y la 1080ti se espera este entre 850-950 pavos , pero sigue defendiendo a nvidia que te conviene 😀

        • Lluques

          Bueno ahora no tirarle pestes a nvidia en cualquier frase es defenderla. Si yo tuviera un negocio haría lo mismo, y si AMD desarrollara ahora un chip 4 veces más potente que la 1080 pero vendiera una versión recortada por falta de competencia me parecería igual de lógico. Son empresas, no ONGs.

      • JC Denton

        Es una estrategia maestra, vamos que es una empresa y tienen que vender, si la competencia no tiene nada para que sacar todo lo desarrollado?, si tu estuvieras a la cabeza de nvidia ya creo que la acciones estarian como las de amd xD

  • XP941

    Son buenas noticias… En el caso de Doom con opengl y vulkan no veo que haya nada que favorezca a amd y claramente sale ganando en uhd. Está claro que esta prueba también estará hecha con Ryzen.
    Llevo con Intel y nvidia mucho tiempo, estoy deseando ver precios para decidir si vuelvo a amd. Espero que no se les suba a la cabeza y no la caguen con los precios. Si no lo hicieran también significaría bajada de precios de los competidores pero lo que harán por desgracia es subir precios.

  • Jorge

    A Borja no le enseñaron la conjugación del condicional en el cole

    • ¿Qué problema ves?

      • Jorge

        Cuando no se tiene certeza absoluta sobre algo se usa el condicional en lugar del presente de indicativo. En este caso es “sería” en lugar de “es”

        • Herrero

          Podrías hacerte un blog pro NVIDIA e Intel. Tendrías muchos seguidores (:

        • Jorge

          Fíjate que he girado hacia la neutralidad, hasta me he quitado el avatar de ” AMD outside” que tenía antes. Me gustaría que otros hicieran ese mismo ejercicio de reflexión

        • Herrero

          Buff es complicado de creer, cada vez que comentas parece un atentado contra algo… si no es a la marca, es al blog, y si no a los usuarios que opinan algo positivo de la marca o relacionado con la noticia del blog.

          Cojones, esperemos que salga, ya después si es malo despotricamos todos en familia, si a fin de cuentas queda un mes xDD

        • nem
        • D1X0N

          Deciamos e el i7 7700 era una cagarruta antes de su review y salida al mercado asique porque no poder hablar pestes xD mientras que no se falte el respeto a sus usuarios y/o creadores no lo veo mal hacer criticas

        • Herrero

          Y ha salido y lo sigue siendo. Por lo único por lo que merece la pena es por que OCea bien, y sin delid cualquiera se queda con un i7 6700K renombrado, un poco mas torpe por consumo y calentamiento.. vamos, un señor refrito y más caro.

          Y aún despues de salir, y encima mentir que supera en un 33% a un 4790K, no se lo desprotrica tanto como a un producto que solo intenta plantar cara a la competencia, que falta nos hace.

          Comparto tu opinión, pero lo de algunos llega a unos niveles que rozan el odio, y yo a este señor al cual respeto su opinión, no lo veo despotricar contra un producto que para muchos de nosotros resulta una estafa, pero lo veo despotricar contra un producto que oficialmente ni sabemos como es ni lo que representará en el mercado, basándose en anteriores productos xDD.

          Respeto su opinión que para mi resulta muy incomprensible, pero yo también estoy en mi derecho de opinar el “porque” de tanto odio hacía algo que no conocemos.

          Es un simil de ciertas civilizaciones indigenas reacias a la tecnología. Yo lo respeto, pero es normal que quiera saber el porque xD.

        • Jorge

          Dijeron que era un 33% más potente que el 4770k, que puede ser… ya que éste viene a 3.4/3.9. Son listos y no lo comparan con el tope de Haswell (Devil’s Canyon, que malotes), el 4790k, porque esos 500 Mhz extra, 4.0/4.4, hacen que la diferencia no pase del 10%.

        • D1X0N

          Aun notandose que sigues siendo pro intel nvidia (que no es malo) parece que has hecho lo que dices nunca esta de mas criticar algo mientras que no sea volviendose loco
          +1 por ti

  • Bien, importante RAJAda ahora toca cumplir… de momento yo más bien lo veo como un empate porque en primer lugar solo están haciendo comparativa con juegos que benefician a AMD y por ejemplo en caso de Star Wars la gtx1080 tira más o menos igual… por otro lado, las Fury se mean en las 980 (ti y no ti) a 4k por la HBM mientras que a 1080 las 980 van mejor, obviamente porque las nvidia tienen más músculo pero su cuello de botella es la memoria de ahí a que conforme aumenta la resolución se ahoguen, en este caso es lo mismo, la GDDR5X está bien como paso previo a la memoria HBM2 pero no tira igual ni de coña y aun así la 1080 a 4k rinde parecido. Por otro lado todas las nuevas tecnologías de VEGA mmm… AMD vuelve a las andadas: I+D en nuevas tecnologías, algunas triunfan, otras se comen un mojón (true audio?????), está todo muy bien pero seguro que veremos las mejoras que pueden ofrecer dentro de un par de años… hoy por hoy de la gama entusiasta solo quedan los fanboys que quieren si o si que en su gráfica ponga AMD y los que justo ahora (bueno cuando salgan las nueva VEGA…) se les presente la oportunidad de actualizar. Mas de lo mismo, crean VEGA, un chip gráfico que a priori es un gran producto pero lo lanzan en el momento equivocado… nvidia tiene a Volta a la vuelta de la esquina y pueden añadir lo que necesiten para volver a la pole. Por otro lado, no es motivo de reivindicación ni de argumento para criticar a nvida los precios de la gtx1080 y que ahora bajen porque sacan la 1080ti, están en su pleno derecho porque esto es una competición. De todos modos… no quiero muestras de ingeniería… quiero ver juegos

    • Alfonso Carmona Figueroa

      Avisa cuando salga la película

    • Yo llevo un rato leyendo comentarios por ahí y tal, y las cosas no son como las pintan y menos por el titular…

      Fíjate que en este mismo vídeo que están comentando estos 2 señores con Raja (que tienen un canal de youtube), le preguntan por la Titan xp y la 1080 en Doom por Open GL y Vulkan, y dijo esto al respecto..

      https://www.youtube.com/watch?v=FwcUMZLvjYw

      Que el mismo Raja nunca dijo; “Que Vega ganaría a una GTX 1080 en DOOM / OpenGL”…

      Así que si dice eso, es que no lo dice con mucha confianza, seguro que por temas de drivers….

      Incluso el mismo Raja sabe de sobra, que la 1080 va a ser mucho mejor en DX11 / OpenGL y en juegos bajo DX12 bien optimizados.. Sobre todo cuando cada gpu, este ozeada. Dicen que son 225w de tdp, y esconden los conectores que pueden ser perfectamente un 8+8.. Muchas incógnitas como siempre y mucho amarillismo. A ver cuando salga, y se hagan una batería de pruebas bastante grande..

      • nem

        normal la arqutiectura de NVIDIA esta diseñada por muchos años de trabajo para DX11, y GCN desde la version 1.0 viene pensada para DX12.

        Si vega gana en dx12 / vulkan a la 1080 , es normal que en dx11 pueda quedar un poco por detras pero nadie lo sabe todavia con certeza es un prototipo donde todo puede ser ganancia y mejoras

      • IronMetal ツ PutoPeludo

        KiLleR“, más cani reshulón no podía ser

        • ibra

          Xdxd

      • Aquí que el titular sea: La AMD de turno patea el culo a la nVidia de turno es un clásico… también es un clásico que cuando veo un titular así diga: Allé voy!!! Bromas aparte, si hay mucho secretismo, no se si es porque tienen un buen producto y no quieren que nvidia lo vea hasta que lo tenga delante para que no pueda reaccionar o que no están seguro del rendimiento y están afinándolo.

        • Fíjate bien que simplemente si lo resumimos y tal, con el ancho de banda que tiene este chip que es enorme, y las memorias hbm2, debería de despegarse de la 1080 una barbaridad.. Y en el vídeo lo ves una 1080 con OC planta cara…. con 256 bits gddr5x en 4k. Encima Doom corriendo con las ultimas bibliotecas en su motor por parte de AMD y en Nvidia van por las bibliotecas 1.0.24 (sin habilitar las ultimas). Hablamos del chip completo Vega de 500mm” probablemente con 4096 shaders ?.. 230/ 250w de consumo sin OC ? Yo perdóname compañero, pero la corazonada que tengo es que andará al nivel del GP 104.. Nvidia como siempre con menos Teraflops y menos músculo siempre da la cara. Veo mucho hype y seria un fracaso no coger a la Titan Xp 471mm2 vs 500mm2.

        • Hombre JuanMa, si esto fuese con GCN4 quiza te lo discutia, pero con el salto que significa vega sabes perfectamente que van a dar un gran empujón en rendimiento por tflop, dudo mucho que fracasen de esa manera.

  • Glusber

    y pero todo bien con el video de DOOM pero cuando empieza a pegar los bajones de fps cuando pelea , ahi nomas achican la imagen para que no se vean los bajones de fps , quizas falta pulir drivers , otra cosa , hubieran probado otro juego , todo sabemos que DOOM va mejor en amd , a que si nvidia hubiera probado la 1080ti con el the witcher 3 , todos pegaban el grito en el cielo …

  • Jorge

    Vamos, es que afirmar que un producto “ES MEJOR” que el de la competencia con una prueba porque te lo diga un directivo de esa compañía supera todos los niveles de amarillismo habidos y por haber.

    • Virtuality

      Exacto. Si hubiera que creerse lo que nos dicen los directivos , las consolas serian la plataforma gamer mas potente XD

      • D1X0N

        Lo peor esque hay gente que se cree eso ultimo de las consolas y muchos ademas

        • Virtuality

          Yo la verdad que no conozco a ninguna que lo piense. Salvo que sean niños pequeños que no tengan ordenador propio y no saben cómo es un PC.

          Cualquiera con dos dedos de frente sabe que si una consola vale 400 y solo una gráfica de pc 400 , la gráfica tiene que ser más potente. Nadie regala nada.

    • Herrero

      Parecido a una diapositiva de Intel en el que el 700K es superior al 4790K en un 33% creo que era…
      Todo el mundo barre para su casa, se llame Intel, NVIDIA o AMD.

      • Jorge

        Ahí Intel hizo trampa y lo comparó con el 4770k, con el que ese porcentaje si es factible, ya que viene a 3.4/3.9. Son listos y no lo comparan con el tope de Haswell 4790k, 4.0/4.4, porque esos 500 Mhz suponen mucho y saben que del 10% de diferencia no pasa.

      • Virtuality

        Pero no es igual. Intel saco la comparativa. No procesador antiguo para que se viera que El Progreso fue mayor. Es una jugada de marketing solamente.

        Pero Amd dice que lo suyo es mejor y ni lo muestra ni lo vende. Lleva 1año sin gama alta y crees que es mejor seguir sin sacar nada y diciendo que tú producto es mejor?

        • Jorge

          En el fondo la “culpa” no es de AMD, es de los medios que dan credibilidad a informaciones sin sostén real.

        • Virtuality

          No estoy de acuerdo. Amd juega con eso.
          En diciembre hizo una demostracion y no enseño apenas nada.

          Y ahora en el CES igual. Y encima da entrevistas diciendo que su producto es mejor pero no lo enseñan ni lo ponen a la venta. Y el tiempo pasando sin aclarar nada.

          A ellos le interesan este hype que se crea.

        • Jorge

          Lo cierto es que es una política un poco sucia…se basa en crear “incertidumbre” en el consumidor para retraer las ventas de la competencia sin tener aún nada real. Y lo llevan haciendo tiempo. Si anuncias algo, sácalo en un tiempo razonable, no esta letanía de powerpoints y powerpoints, gameplays que duran 15 segundos en los que ni siquiera se ve si la resolución es 4k, y un largo etc. Pero los medios también tienen su culpa por hacerles la cobertura

        • Virtuality

          Cada uno juega las cartas a su manera. Amd parece que de mueve mejor con estas cosas en vez de presentar un producto y venderlo.

          Y las paginas de noticias viven de rumores. Es normal que le sigan el juego. Hoy con tanto fanatismo en internet es dinero calentito el sacar noticias de este tipo.

          Todos formamos parte del juego. Y lo gracioso es que los consumidores somos los peor parados porque tenemos que pagar. Despues las empresas y web ganan dinero con este juego. Nosotros se lo damos a ellos XD

        • Herrero

          Pero ese progreso de la gama anterior no se acerca ni a un 10% a la actual, y están vendiendo la moto con un 33%… ¿mentir es una estrategia de marketing para Intel solamente? , para los demás es humo, estafa y demás.
          No creo que esa muy ética esa visión de políticas para una compañía y no para otra entonces, a eso se le llama favoritismo.

          Lo ha mostrado, en blender contra un 6900K en procesadores, en Doom y otro juego que no recuerdo cual es, con VEGA (una muestra de ingeniería). Que luego tu te lo creas o no es respetable y no entro a valorarlo, pero si me justificas el marketing de Intel, ¿por que no el de AMD?

          Sobre los tiempos y las esperas, creo que es bien sabido con los presupuestos que juega cada compañía. Lo llamarás escusa, muchos buscáis cualquier cosa para que parezca injustificable el argumento de los demás, pero para mi este lo es, y es que entre compañías hay diferencias abismales económicas.

          Si no lo muestra de una manera contundente (VEGA) es por movimientos para proteger su producto contra la competencia, como NVIDIA que no terminó presentando nada en el CES y AMD canceló ahí su presentación.

          Aquí ya cada uno es lo que quiera creer, yo no creo que este por debajo ni tampoco por encima… opino que será competente con lo que hay. Si tu crees que no lo estará me parece fenomenal, por ahora ni tu ni yo tenemos razón porque no hay ni reviews de terceros, si las hay de Intel y que su 7700K no supera en un 33% al 4790K.

          Cada uno que crea lo que quiera, es libre!

        • Virtuality

          Intel no te miente. Lo haria si te dijera que ese 33% es con skylake. Pero te pone claramente contra quien es.

          Jugada de marketing. Que no defiendo. Pero las entiendo.

          De AMD nos quejamos que promete y no saca nada. Esa es la queja.

          De intel ya los tiene en la calle. Y no merecen la pena este año. Pero los saca.

          Ves la diferencia??

          Unas hablan y sacan y otras hablan y no sacan.

        • Herrero

          Está bien que no lo defiendas, por fin uno que lo dice de manera abierta. Otros parecen que les da de comer y lo defienden bajo esa justificación hasta el fin de los tiempos.

          AMD lo saca, pero tarda. La diferencía es lo que te digo, carece de ese enorme presupuesto que mantiene la competencia desde hace años. Ya no vamos a entrar a valorar el porque, ya sabemos que los FX han sido una cagada y está mas que repetido… pero la cuestión es que el panorama es así y ya depende del usuario entender eso o no.

          Y hablan porque tienen que anunciar su producto tiempo antes, como se anuncian GPUs y procesadores de otras marcas… tienen que hacer saber a sus usuarios o posibles compradores que van a salir nuevos procesadores, eso lo hacen todos, aunque los tiempos desde su anuncio a su salida sean mas largos por lo que atrás te digo.

          Salir van a salir, los RyZen no creo que pase de Marzo ya tirando a mucho, VEGA no lo sé.

          Luego quien quiera comprar que compre con lo que se vea, y quien no, pues no, al igual que el entender que el producto tarde. Si va ha haber competencia, esta justificado que tarde un poco más a mi modo de ver.

        • Virtuality

          A mi ninguna de las dos empresas me dan de comer. Las dos me cobran sus productos sin miramientos.

          Una te los cobra caro porque no tiene competencia y pone el precio que quiere y la otra mas barato porque da menos rendimiento.

          Si AMD esta peor todos sabemos por lo que es. Lleva años haciendo las cosas mal. Y eso se paga.

          A mi me parece bien que hablen. Pero que despues lo saquen. No puedes jugar tanto tiempo a vender un producto y no mostrarlo.

          Cuando lo saquen Intel renovara y otra vez lo mismo.

          Porque el 6900 con el que lo comparan es del año pasado. A intel le toca renovarlos en mayo-junio. Y a este ritmo los vuelve a superar.

          Asi que saquen ya las cosas y a buen precio. Que la competencia ya tiene esos productos desde hace tiempo.

  • Virtuality

    Si de verdad fuera tan superior a Nvidia , han perdido una oportunidad de oro para demostrarlo a todo el mundo en el CES.

    La experiencia me dice que si tienes algo realmente bueno lo muestras. No hablas solo de ello sin pruebas.

    • Yo creo que no están seguros… ojo nvidia tampoco lo tiene claro… están tanteándose en mi opinión, una cosa está clara, es un muy buen producto, solo espero que el precio acompañe

      • Virtuality

        No estan seguros de que???? Llevan 1 año sin gana alta y no estan seguros de si sacar o no???

        Y Nvidia lleva un año con las graficas en el mercado. No tiene que tener prisa de nada. Esta vendiendo muy bien y va lider. Es AMD la que tiene que mostrar lo que tiene.

  • Tapando estrategicamente las conecciones de alimentación? Que conveniente…

    • nem

      es una preview no un review =)

  • Takk

    La cinta la han puesto para publicitar un supuesto misterio, ¿alguien se cree que si fueran tan, tan, tan buenas seguirían retrasándolas? Igual que con Ryzen, tanta diapositva y tanta información similar cada dos días cansa.
    La 1080Ti a la vuelta y las 11×0 no tan lejos; eso es lo que pasó con las Furys y lo que les va a volver a pasar en gama alta con la primera hornada de Vega.

    • Riwer

      No es ni misterio, debajo pone Fury X. Me la juego xD

  • DamyHao

    Las apis de bajo nivel no se van a usar tanto como creeis

    • IronMetal ツ PutoPeludo

      Pues entonces estamos jodidos, jodidos de verdad. ¿Entonces el futuro seguirá siendo DX11 tirando de un solo núcleo del procesador y desaprovechando tarjetas gráficas? Yo creo que no, eh

      • DamyHao

        Oye tu sabes lo que significa BAJO NIVEL??? ¿LO SABES? Significa programar con lenguaje muy cercano a la máquina, cosa que es muy complicada de aprender

        • IronMetal ツ PutoPeludo

          Sí, lo sé, ¿sabías que soy programador? Eso no te lo esperabas

          Es más difícil porque es más abstracto aun, pero no hay nada imposible. Los que trabajan en desarrolladoras son cerebritos

    • Herrero

      Hombre, que los programadores sean algo vagos y no quieran adaptarse al progreso es normal, pero lo actual llegará a un límite en el que al final todos tengan que pasar por el aro y optimizar lo programado para lo que hay.

      Recordemos que se va ha ralentizar la ley de moore por la dificultad de reducir mas la litografía de manera “barata” hasta por lo menos 2020 que entren los 8nm. Si no se empiezan ha aprovechar arquitecturas, estamos jodios como dice el compañero.

      • Riwer

        Depende, que cualquier dia nos sale Samsung con un procesador de grafeno xD

        • Herrero

          Buff, eso sería lo adecuado, pero queda mucho silicio que aprovechar aún, tipo a lo petroleo. Hasta que no se lo acaben, el salto va a ser jodido que se de pronto.

          La cuestión es que no pasa por solo aumentar la potencía, si no usar de manera eficiente la que hay para que el rendimiento sea progresivo en todos los ámbitos.

          No podemos hacer como con los procesadores multinucleo. Procesadores con cores a patadas y que luego los programadores se rasquen los cojones aprovechando un núcleo como se hacía.

        • Riwer

          Es que realmente si lo piensas no es tan asi.

          Ahora mismo (y como programador te lo digo) buscarle los 3 pies al gato para realizar tareas que podrian ser simples de otra manera es lo realmente ineficiente.

          Despues del P4 si se empezaron con los dual core no fue porque un nucleo fuese poco eficiente, sino porque no era posible seguir por esa linea por tema de temperatura.

          Fijate que un Pentium4 ya iba a 3.4Ghz, y tropecientos años despues esa es la frecuencia a la que funcionará Ryzen. (meritos tecnologicos los obviamos).

          Si sale un procesador de grafeno de un solo core, es lo mejor que puede pasar. Porque no habria que comerse la cabeza realizando sistemas jodidamente complejos para esquivar un problema que deja de existir.

          Que, por supuesto, acabaria llegando la necesidad de usar varios cores de grafeno (cosa que se podria hacer desde el dia 1, ya que son muchisimo mas eficientes y se calientan menos).

          Pero bueno, esto está mas cerca que lejos.
          Si he nombrado a Samsung es porque ya tiene sistema de fabricación a gran escala de grafeno (con rodillos), y un transistor de grafeno capaz de cambiar de estado (de apagarse una vez encendido), el barristor. (No en vano es lider en investigación de grafeno y su principal impulsor)

        • Herrero

          Yo programo también, no de manera profesional aún, y se que es más engorroso programar para varios núcleos… siendo tu del mismo gremio, como también me afirmas, tocará con el grafeno también incluir más nucleos.

          Conociendo ya como funciona el asunto, creo que se ganaría mas mejorando las maneras de programar de manera eficiente aprovechando más los núcleos y de maneras mas simples, mucha gente piensa como tu dices “tareas simples”, pero tarea a tarea simple tenemos por ejemplo juegos que son ataques masivos a procesadores que hoy deben mover el mundo, y en cambio se saturan por esas malas prácticas y esa manera de pensar.

          Y ya no porque el grafeno consiga un IPC brutal y no haga falta el dia de mañana, si no porque al final todo acabará pasándo por el mismo aro tarde o temprano y tendremos que volver a programar para procesadores multinucleo de grafeno…

          ¿por que no mejorar la programación multinucleo ahora que la usamos?, simplificarla, si sabemos sacar partido de manera eficiente a lo que tenemos ahora, mañana será aún mas sencillo sacar mas eficiencia cuando escalemos a una tecnología mayor.

          Hay que quitarse las malas manias de programar de manera tan simple sacrificando rendimiento, si aprendemos ha fabricar hoy eficiencia, mañana seremos los putos amos, aunque cueste algo más.

          Y lo del grafeno sabía que Samsung ya llevaba moviendo el cotarro tiempo, pero también sabemos quienes mueven el silicio y por lo menos hasta dentro de unos 8 años, cuando no quede mucho silicio y no puedan tampoco llevarlo más allá, empezará el buen salto, o eso pienso, ojalá me equivoque.

          Y si ocurre antes, será mezcla de ambas tecnologías, o esa es la sensación que tengo.

          Con grafeno hay muchos prototipos de proyectos de los cuales no se sabe mucho, células fotovoltaicas mas eficientes, baterías… pero anda verde, y creo que hay personas que le interesan que siga verde una temporada.

        • Riwer

          Es que no es lo mismo programación multhilo que multinucleo.

          La ejecución siempre es secuencial por core, siempre. Y aunque tengas hilos lo unico que haces es alternar el orden de ejecución en ramas (hilos).

          De normal solo se programa en multihilo y es el sistema operativo el que se encarga en distribuir la ejecución en los cores (de ahi que DX12 pueda hacer “casi por su cuenta” un aumento de rendimiento en base a como la libreria se comunica y gestiona la cpu).

          Hacer una programacion 100% eficiente multi hilo y multi core es, en la practica, imposible.

          Si la ejeución en multi hilo y un core, salta de un punto a otro (para ejecutar el hilo sin interrumpir el hilo de procesamiento principal) es porque paralelizar tareas es una necesidad basica innamovible, cosa distinta el usar multples cores.

          Que si, que 4 cores a 3GHz es mejro que 1core a 5Ghz, y ya ni hablemos de las tarjetas gráficas que son cientos y cientos de cores (salvando las diferencias).

          Pero cuanto mas complejo es un sistema menos control tienes de las variables, y un motor gráfico es uno de los software mas complejos que existen (involucran física real (matematicamente hablando), programación a bajo nivel, librerias de gráficas de terceros y muchas cosas mas)

          De serie no tienes el control de todo (necesitas programar a mas alto nivel por cojones) y de segundas las posibilidades de ejecucion pueden llegan a un punto que sea imposible de controlar.

          Sobretodo proque ahora los juegos no son el tetris.

          Te pondré un ejemplo. El mmorpg Black Desert es actualmente el mmorpg que mejores gráficos tiene, y con una diferencia del cielo a la tierra respecto al segundo mejor.

          Black desert ni siquiera puede utilizar más del 75-80% de una gpu ni aprovechar el multi hilo. (Directamente no es comptable con el HT de Intel y la paralelizacion decidieron hacerla por core).

          Por supuesto y como todo motor, utilizar varios cores e hilos, y a pesar de ser todos los relacionados profesionales del copon (de hecho el motor fue desarrollado desde cero solo para ese juego, y actualmente trabajan con especialistas de rendimiento de efectos especiales del cine) y son incapaces de controlar todas las varaibles de fondo cmo para realizar una programación que aproveche de verdad el hardware.

          ES decir, es lo mejor tecnologicamente que existe como motor orientado a mmorpgs, y es un motor incapaz de aprovechar bien cpu y gpu.

          Hay margen de mejora, siempre lo hay, pero el asunto no son programadores con pereza en programar para multinucleo, es perdida de control de la ejecucion.

          De ahi que diga buscarle los 3 pies al gato para programar cosas muy complejas no es la solucion, la solucion es simplificar el funcionamiento del hardware.

        • Franm

          y después del silicio querían empezar con nanotubos de carbono que al parecer funcionan de manera parecida al silicio pero se pueden hacer todavía más pequeños, hasta 1nm teóricamente

    • nem

      no se si lo dices en serio, pero todos los juegos que estan llegando tienen soporte DX12 aunque sea al final un parche mal hecho con algunas mejoras en rendimiento pero el paso a las nuevas apis que son de bajo nivel es innegable

    • Dr. Zilog
    • JC Denton

      No tiene ni pies ni cabeza lo que dices, si fuese así entonces aun seguiríamos en DirectX 9.

      Lógico que tarden años en pasarse a nuevas apis si un juego no se hace en un mes…

    • ibra

      Las cosas avanzan aunque tú no quieras y la realidad es que a dx11 cada vez le queda menos tiempo

  • Haudum

    Maldita sea, lo estoy viendo venir. La moda de los leds RGB ha pasado.
    De ahora en adelante, las tarjetas gráficas van a venir con cinta adhesiva para ganar más rendimiento pegándolo de la manera más horrible/cutre posible.

    Los modelos premium tendrán la cinta de colores.

  • Swagger de Rivia

    Bueno, parece que ahora Nvidia se verá “obligada” a sacar la 1080ti para volver a estar por delante de AMD.

    • Yo creo que no, y deberías de ponerte la mascarilla de gas, y investigar un poco.. Sobretodo lo que dijo el Ceo de AMD ” que nunca dijo que podría derrotar a la 1080 en Doom, en Open GL/ Vulkan 4k”, y ves estos vídeos de la 1080, tal vez creas que con la Titan Xp tienen de sobra… Un titulo bajo Vulkan, y no hay anda más para comparar.. Y en parte son malas noticias pero, la 1080 Ti no la van a sacar teniendo 2 espadas como la 1080 que se vende bien, e incluso la Titan xp quedándose sin stock por venderse bien también.

      https://www.youtube.com/watch?v=13V8lYS–Pg
      https://www.youtube.com/watch?v=o5XqF4bgxqY

      • JC Denton

        Tiene el Motion Blur desactivado y el de AMD lo tiene en High, algún fps debe bajar con esa opción, si vamos a comparar que sea a igualdad de condiciones, yo si veo que una opción esta desactivada en una y activada en otra ya no es valida la comparación, saludos.

        • Si te fijas ellos usan su Ryzen 8/ 16 hilos y en Intel usan su 6900k en las comparativas que utilizaron durante el Ces. Luego hablas del vídeo del fulano?.Tienes que comparar un equipo más o menos igual 8/ 16 hilos 5960x.. Y una 1080 overclokeada. El motion blur esta desactivado en Vega ?.. Yo no lo veo que hagan reseña, en el breve tiempo que muestran settings, pero bueno. De todos modos el Motion Blur lo que crea, es el efecto de desenfoque de movimiento. Puede que quite algo, pero es que no veo que lo mustren en Vega. Y ya ves iguales en rendimiento idéntico, a una 1080 OC en “Vulkan”, con las nuevas mejoras de la arquitectura y todo 4k.. Saludos

        • JC Denton

          El motion blur lo tiene desactivado el fulano de tu video, el video de Linus Tech Tips muestra con la opcion activada y ahi se aprecian otros settings.

          https://youtu.be/Y8tDaPLHxiE?t=58

      • Swagger de Rivia

        Sin duda el humo de AMD es épico, aún no se ha disipado este y ya empieza a salir el de la siguiente te arquitectura xD, pero que quieres? Últimamente les funciona.

  • Ramon Mancilla

    “nadie se gasta unos 800 euros para jugar a una resolución 1080p”….. que tienen de malos los 1080p, ademas que para jugar mas 800 no son suficientes ya que eltv/monitor no es gratis, el equipo tiene que estar a la par del tarjeta de video

    • Siliconpower74

      Creo que se refiere al precio de la grafica 800€

    • Binc

      pa jugar full 1080 sin peos ni nada comprate una rx 480 y a peo resuelto :u yo o tenia pa un monitor led 4k asi que em conformo con uan rx 480 que va super fluido con todo juego de ultima gama a 1080

    • Victor Subias

      No tiene nada malo, se refiere a gastarse 800 en la grafica…

    • Edu Narux Pons

      Pensar es gratis aun, aprovéchalo XD

  • galumis

    Una Fury a 1600mhz a 14nm con HBM 2 de 8 GB?

  • ibra

    Parece que algunos les duele que Vega pueda ser más potente que una gráfica nvida,respecto al juego que han usado es lógico que sea pro amd,no van a usar cierto juego de coches que esta roto para muchos usuarios por tecnologías privadas…Si lo hicieran es que serían gilipollas directamente

    • IronMetal ツ PutoPeludo

      Project GameWorks CARS

    • Kingpmi

      faltaría mas que no superada a una gpu que sacaron en mayo cuando posiblemente llegara a tiendas un año mas tarde, y encima en su entorno ideal.

    • Virtuality

      Saliendo 1 año más tarde yo espero que si supere a Nvidia. Y más después de todo el bombo que le llevan dado.

    • PiCh

      joder , cuando aun se sabia menos que ahora se decia que llegaria al rendimiento de una gtx 1070y que tampoco iba a estar tan mal y ahora que se sabe juega en la liga de la 1080 muchos no estan conformes ….
      pues yo si el precio no es a lo nvidia style creo que pueden ser graficas muy intersantes

  • Ricardo Ponce Gil

    Y si mejor ya sacan el producto? Joder, llevo esperando bastante tiempo y solo veo afirmaciones, tablas, gráficas y datos pero no veo que la saquen, soy de esas personas que valoran más el producto por lo que que es en lugar de lo qué promete, pero si me prometes el cielo, la luna, las estrellas y la segunda venida de Cristo si que jusgaré tu producto duramente.
    Así que mejor lo saquen pronto, quiero ver un gran salto en rendimiento/costo en procesadores y gráficas.

  • nem

    @disqus_tMbzi1Wa4L:disqus como respondes a esto.. JJAJAJAJA

    AMD Vega 10 GPU With 8GB HBM2 Powered DOOM 4K Vulkan Demo, Should Outperform GTX 1080 In OpenGL Too

    http://wccftech.com/amd-confirms-vega-10-doom-4k60fps-vulkan-demo-outperform-gtx-1080-opengl/

  • ikergarcia1996

    Mirad que interesante, de la prueba de Doom han sacado todos los datos de rendimiento y los han comparado con una 1080 y un i7 6900K (en la prueba de doom usaban el ryzen de 8 núcleos que en teoría rinde muy parecido).
    https://www.reddit.com/r/nvidia/comments/5msc1d/an_early_comparison_of_the_gtx_1080_to_the_amd/

  • Hugo Scali

    Espero que la saquen antes del 2018 que me gustaria comprarla.

  • Anony Anonymous

    Que linda grafica! . Arriba amd hoy saque la radeon 7870 que tenia guardada y la meti al horno porque tenia artefactos extraños puntos rojos y cada vez que le ponia un driver se jodia en pantalla en negro. Ahora tengo la suerte de tener una 970 pero ahora que puedo vender la 7870 y juntar para un zen.
    Edit: Aclaro que ahora si funciona!

  • Willy Delacruz Pinedo

    el video al final dicen que utilizan un i7 4790k :/

  • Samuel García Poveda.

    “Nadie se gasta unos 800€ para jugar a 1080”. Vamos, que va a ser más potente y más cara y en lugar de obligar a nvidia a bajarse del burro va a intentar jugar en el mismo rango de precios. Veremos cómo sale.

  • Alex88

    Estos de AMD… haciendo las pruebas en un i7, espero que con la nueva generación que van a sacar empiecen a auto-promocionarse usando sus propias CPUs en las pruebas, por que queda bastante mal usar una CPU de la competencia para mostrar un producto…

  • zaxter

    Pasa el tiempo y el humo no se disipa…una pena

  • Furymole

    Son cutrisimos….valla forma de tapar las coñeciones electricas….jajaja Amd..credibilidad..0!!😭😭😭

    • Jorge Delgado

      Que quieres que lo tapen con carbono…y si tienen que quitarlo rapido por el motivo que sea?
      De todas formas esta forma es buena para ellos…si pones una cajita cuca facil de retirar…la hubieran retirado… En cambio de esta forma esta claro que esta tapado para que no se quite y nadie serio va a meter mano sin permiso.

      • Jordi BB

        Con luces RGB, es de cajón… xD

      • Furymole

        Q dices??? Q nomecuentes historias compy,q aki hay gato encerrado…

        • Edu Narux Pons

          Si, tu cerebro…

        • Furymole

          Tu q poyas hablas?? Payaso!

        • Edu Narux Pons

          Ea ea, te pones nervioso eh? Es normal, los simios solo saben responder con insultos xD Quieres un plátano?

        • Furymole

          Tu quieres una ostia?? Esque tela con algunos…yo me meti contigo al principio?? Para provocarme con lo del cerebro??aunque claro..con esa puta cara que tienes…normal q te dediques a tocar los cojones..olvidame puto pesado.

        • Edu Narux Pons

          Adelante, eres tan inteligente, que te dispones a amenazarme, XDD optas a la violencia, etc etc. XDDD Finalmente, si eres un simio, utiliza el cerebro anda XD

        • Furymole

          no, no te amenazo,te daba 3 ostias directamente..que fácil es hablar por internet..pero trankilo…que como no tienes ni puta idea,de quien soy, y a lo que me dedico..te vas a sorprender.vas a ver lo simio que soy,lo mismo te cambia esa cara de retrasado que tienes.hasta dentro de poco….

        • Edu Narux Pons

          No tengo puesto mi nombre completo en internet, simio.

          Saludos 😉

          EDIT: Si tuvieras la capacidad de pensar, alomejor hasta servirías de actor de teatro, venga winston 😉

        • Jorge Delgado

          Jajaja

  • Flauros

    Me acaban de pasar info de que almenos la de referencia podria salir con un solo conector de 8 pines (seguramente para evitar altas temperaturas y consumo aunque sacrifiquen los niveles de OC).

    • Virtuality

      Con tanta informacion privilegiada que te pasan al ordenador yo me preocuparia ehhh.

      Menudas peliculas te montas compañero. Algun dia te daran un oscar al mejor guion XD

  • samipower

    Segun la saquen saldra la 1080ti al mismo tiempo y se la comera con patatas…

    Y vuelta a lo mismo de drivers y tecnologias privativas y a dx11 y dx12 …

    • NiUnaMas

      Claro, claro…

      Como la 1080Ti rinde como un SLI de 1080… en fins, Yo entiendo que lo mejor es ponerse la tirita antes de hacerse la herida, pero vamos, que si tu quieres pensar que la Ti es la mejor antes de saber cuant orendira esta, pues adelante, gastate los 1000 pavetes que valdra para jugar a 4k en tu monitor de 1080…

      Que esto es una muestra de ingeniería sin drivers optimizados ni nada, y la 1080 esta ya muy optimizada a nivel drivers… Veremos en que queda la cosa…

      propicios dias

      • samipower

        Jugar a 4k en un monitor de 1080 igual lo haces tu.
        Yo juego en 2k en monitor de 2k.
        Y en 2k 3d .

        Y con la siguiente hornada de gráficas no con la serie 1000.

        Entonces sera el momento para jugar en un monitor 4k gsync hdr.

        Y para disfrutar de las htc vive/oculus etc..

        Con tasas superiores a 60fps y con filtros.

        • NiUnaMas

          cierra la puerta al salir, anda…

          propicios dias.

        • samipower

          Lo mismo digo. La paz sea contigo.
          Al alba mira al norte

        • NiUnaMas

          Me has echo reir al final… Hay te pongo el like.

          propicios dias.

    • Virtuality

      Amd tiene que hacer la jugada con un buen precio. En eso puede destacar.

      Si pone precios parecidos le estaria dando la razon a Nvidia. Que encima saco las graficas el año pasado.

      Y si los precios son parecidos pues que sea bastante mas potente. Piensa que ya ahi gente disfrutando de la potencia de una 1080 desde hace muchos meses.

  • Jexux

    Nos viene bien que haya competencia. Pero si amd saca una gráfica un poco más potente que la 1080 a 700-800 euros, nos quedamos igual, pues luego llegará la 1080ti en la franja de los 900-1000 que le sacará un 20% y los precios no bajarán.
    Lo que interesa es que la saquen a un precio rompedor para que nvidia tenga que bajar sus precios y desaparezca el monopolio en las gráficas más potentes.

  • La flor de Lisa Su

    Lo único interesante de la foto es que en vez de llevar un i7 para las pruebas lleva un procesador ryzen y con el nuevo disipador wraith lo demás ya lo tenemos en el mercado desde agosto del 2016 xD

    • Pese al optimismo tóxico que hay aquí, lo tiene muy complicado AMD para poner entre las cuerdas a Nvidia, la cual ni se ha molestado en presentar la 1080ti y cuando lo vea necesario presenta Volta y jaquemate a AMD, porque si con Vega necesita casi un año en dar respuesta, ni te cuento lo que va a necesitar para responder a Volta.

      • La flor de Lisa Su

        Hombre muchos gurus del chapuzas dicen que Vega viene para competir con Volta y la gracia es que todavía no se sabe nada, de todos modos yo de AMD solo estoy esperando los Ryzen y si veo que no merece la pena ir por un 6700k y punto.

        • Asurmen

          Pero tu eres la flor de la todopoderosa Lisa Su que no es la jefa de radeon pero algo sabrá, que opinas tu al respecto?
          Mi apuesta es, se jinka a la 1070, queda algo por debajo de la 1080, jugando a 1080p y sobretodo en dx11, en vulkan dx12 2k-4k vega iguala o supera a la 1080. Solo falta lo mejor, a que precio? Amos florecilla mójate pero no en plan camgirl eh? XD

        • La flor de Lisa Su

          Yo creo que unos 500 euros para la 490 😀 entre una 1070 y 1080 😀 pero viene muy tarde, ya mismo presenta Nvidia las pascal 2.0 y para 2018 Volta que tiene pinta de ser un salto muy importante, pero bueno, yo prefiero que de el pelotazo con los ryzen 😀

      • Xabdeth

        Soy Minerva la chupa vergas, y me encanta el cinismo.

  • 10MIL

    EL problema es que estan tardando tanto en sacar las nuevas graficas, que al final nos meteremos en la nueva generacion de Nvidia y volvera a quedarse atras 🙁

    Mas les vale sacar las nuevas gpu a buen precio, porque si no, no van a tener nada que hacer.

  • Fierro Fergus

    Ohhh, le gana a la 1080 con 12 meses de retraso. Otra gran hazaña de AMD!!!

    • Asurmen

      Que 12 meses de retraso? Dijeron que saldría para el primer cuarto de 2017 y de momento no han anunciado ningún retraso,..

  • Gamerinc

    …desde lejos se puede ver lo que es grande

  • Javier Saove

    Emmmm, querido Raja, como comparar una gpu de 600nm a una de 300?

  • 10MIL

    Por cierto, que es ese conector azul que tiene a la derecha ?

  • raven_bbp

    Es decir que la sacarán un año después y será un poco mejor, pues manda cojones vaya pedazo de progreso, el colmo sería que fuera peor xD

    • Asurmen

      Un poco mejor? Vega se caga en las muelas de las Furyx que son sus antecesoras, o hablas de nvidia? Pq si es así solo tengo que decir !Joder el nuevo clio es una mierda, sale 30 años después y el ferrari f40 del 87 se lo folla…

      • 10MIL

        Se refiere a que es un poco mejor ke la GTX 1080 que salio hace un año, cosa que es normal, han tenido un año entero para superarla, vamos que realmente no es nada del otro mundo.

        • Asurmen

          Se a lo que se refiere… y por eso mi 2da parte escrita… estamos queriendo equiparar siempre amd con intel… uno que vende una cpu a 159€ frente uno que los vende a 300+ las gpu’s de nvidia que con las top TI y las propias titan venden a 900-1100€ con otras que vienen a costar 600€ en su salida, y bajan a los 500 y algo después, mayormente si quieres lo top top gástate la pasta y ten un ferrari, si te da igual sacar 10 frames menos, pero ahorrarte 400 ñapos en cpu&gpu compra amd, pero comprar 2 marcas distintas con precios distintos es la misma tontería que decir que el clio sport del 2017 es un truño por que no puede con un F40 del 87, 30 años después, claro que ni son de la misma marca, ni valen lo mismo ni nah, pero oye por comparar que no quede…

      • raven_bbp

        AMD se tiene que comparar con lo mejor que hay en el mercado si quiere mejorar económicamente, no consigo misma, que actualmente el que quiera ir a por las gamas TOP solo tiene una opción.

        • Asurmen

          Pues es una pena, dile a todos los fabricantes de coches que pleguen que ya esta ferrari, lamborgini y pagani pa arreglarnos la vida. Que hacen perdiendo el tiempo vendiendo coches de mierda.

          AMD tiene que ir a por su segmento de negocio, que dentrada ya te digo yo que no son los gamercillos. Y los que van a gamas top son una inmensa minoría, por no hablar que es donde mas pasta palmas en I+D y ya veremos si la recuperas.
          Y si finalmente una Vega vale 500-600€ luego no pretendas compararla con una 1080TI de 900€ con reserva, previa compra de la 980TI por que volveremos a comparar cosas no comparables… como mi clio y el F40 you know?

        • raven_bbp

          Claro lo mismo el mercado de coches que el de tarjetas gráficas, algunos es que con tal de seguir la discusión sacáis unos argumentos de aúpa…. Fíjate sí es tan minoría la gente que compra tarjetas por encima de 300 euros que la 970 es la tarjeta más utilizada por los usuarios de Steam y la 1070 con su sobreprecio está la 8º (y eso contanto las integradas)

          Eso de que las más vendidas eran las tarjetas entre 200 y 300 euros era un argumento válido hasta hace poco pero la gente que se vicia en PC suelen tener solo un vicio y soltar todo la pasta en comprarse un ordenador de alta gama no lo ve cómo un gasto sino una inversión, de ahí que no les importe gastarse algo más para conseguir algo mejor.

          AMD tiene que dar un golpe sobre la mesa sacando algo que supere en bastante lo que tiene NVIDIA en el mercado, que se note ese año de tiempo extra que han tenido para preparar su respuesta, sino nunca se van a quitar esa etiqueta de marca barata que tiene ahora mismo y que parecerá que siempre van un paso por detrás de la competencia.

          Y sí VEGA vale 500 euros será porque tendrá un rendimiento ligeramente superior a la una 1070, porque AMD no es una ONG que regale las gráficas, la FURY X cuándo salió no las regalaban que yo recuerde tenía un precio muy cercano a la 980 Ti.

        • Asurmen

          Vale no me compras lo de los coches, los móviles tampoco? Nada nada que ver tampoco? Y hay buenos móviles de 250€ y moviles mejores de 1000€, ahi tampoco tienen que plegar todos ya que esta apple y samsung?

          Y siguiendo con tu razonamiento de Steam, enserio me dices que tanto intel como amd o nvidia comen de los gamers que le compran 1 millon de Gpu’s? No de las contratas con microsoft o sony que les venden la ostia de APU’s para consolas, ni servidores, ni centros de datos ni grandes partners de torres o portátiles, no no eso es calderilla, se ganan la vida vendiendo i7 7700k y Gtx 1080TI a la gente de casa, eso me dices?

        • Victor Subias

          Perdona q te diga pero considero un logro si AMD saca una grafica ligeramemte superior a la 1080 a un 20% menos de precio final. Yo me voy a cambiar de grafica, pero no soy ni verde ni rojo solo quiero valorar todas las opciones una vez esten todas las cartas sobre la mesa. Y de ser como he dicho antes y confirmarse por reviews dicho rendimiento (de momento sigie siendo humillo) se llevaria el premio y, como yo, hay muchas gente.

  • Pingback: La GeForce GTX 1080 Ti se presentaría finalmente entre el 10-12 de Marzo - El Chapuzas Informático()