El paso de AMD por el CES fue decepcionante, pues todo se limitó a liberar unas diapositivas para conocer la arquitectura VEGA. Pero lo más interesante llega por detrás de los bastidores, conociendo ahora que la demo ejecutada por su equipo, que conseguía ejecutar el DOOM en calidad Ultra a una resolución 4K por encima de los 60 FPS hacía uso de una gráfica basada en el silicio VEGA 10 que empleaba 8 GB de memoria HBM2.
A ello se le suma una entrevista de PCWorld a Raja Koduri, presidente del grupo Radeon Technologies Group, donde se mojó para revelar que dicha gráfica no solo es más potente que la GeForce GTX 1080 ejecutando dicho juego bajo la API Vulkan, sino que bajo OpenGL le "baja los pantalones a la GeForce GTX 1080". También tenemos fotografías de la gráfica tras su paso por el CES, la cual estaba tapada por todos lados, pues se trata de una muestra de ingeniería.
Esta es una respuesta importante, porque las API de bajo nivel como DirectX 12 y Vulkan han mostrado una clara tendencia a favorecer la arquitectura gráfica de AMD sobre Nvidia. Mientras que las API más antiguas y altamente abstraídas como OpenGL y DirectX 11
siguen favoreciendo a las GPUs de Nvidia. Si VEGA 10 puede mantener su liderazgo sobre la GTX 1080 en OpenGL, esto sería un buen presagio para el rendimiento de la GPU en títulos DirectX 11 también. La respuesta a la pregunta era sí, VEGA 10 todavía superaría a la GTX 1080 si se hubiera seleccionado OpenGL.Sin embargo, había una advertencia importante a la respuesta de Raja. Dijo que VEGA 10 debería superar a la GTX 1080 con la misma resolución de 4K. Aunque, en las resoluciones más bajas donde el juego demanda menos potencia a la GPU habría menos diferencia de rendimiento entre las dos, aunque claro, nadie se gasta unos 800 euros para jugar a una resolución 1080p.
Hablando de APIs de bajo nivel, Raja confirmó que 2017 va a ser un año mucho más grande que 2016 en lo que a juegos DirectX 12 y Vulkan se refiere. Este año se espera que el número de lanzamientos de juegos DirectX 12 y Vulkan sea exponencialmente superior al del año pasado. Algo ante lo que Raja estaba claramente muy emocionado, pues AMD será la más beneficiada por ello.
vía: Wccftech
Los videojuegos nos han acompañado durante más de 40 años y a lo largo de… Leer más
Google no solo es una empresa que es conocida por su dominio y presencia en… Leer más
Si has estado interesado en comprarte un nuevo teclado mecánico te habrás topado con que… Leer más
A la hora de elegir un sistema operativo, la mayoría de personas va a optar… Leer más
Las grandes compañías son reconocidas por tener un gran dominio en uno o varios sectores… Leer más
Estados Unidos lleva tiempo intentando contener el avance tecnológico de China en Inteligencia Artificial bloqueando… Leer más
Esta web usa cookies.
Ver comentarios
zassss un prototipo de vega con drivers alfa :B
Yo ya dije que aun estaba en sus fases finales y que me estrañaba que saliera tan pronto y todo el mundo espero a la presentacion del CES, yo ni me moleste en mirar, lo mismo paso con la 1080TI, Nvidia nunca a sacado una "TI" si no es en respuesta a una GPU AMD y todos trasnochando a ver una GPU que no existe xD
La RX 490 / RX Fury (no sabemos que nombre le darán a esta cosa), ya han dicho que no estará hasta cerca del verano... de por si hay un calendario de lanzamiento para VEGA. Por ahora, y por eso esta tan censurada (le pusieron cinta para evitar que la gente fisgue y solo han dejado a muy pocas personas abrir la maquina, es mas, parece que hay cierto convenio de confidencialidad porque no pueden dar detalles de TODO lo que traerá VEGA).
RX Rage
"no estará hasta cerca del verano"
No se si habrá 1080Ti pero lo que si habrá este año es gtx1100 14nm mejorado con posible hbm. Se dice que volta estará en 2018 con gddr6.
Eso significaría que aunque amd haya hecho bien el trabajo posiblemente llegue bastante tarde.
GDDR6? en serio?
Yo tengo bola de cristal también y pronostico el futuro. Vega se fundirá a NVIDIA x 10000000000 pro infinito y mas allá.
Por 20€ hecho las cartas xDDD
Ponlo en google a ver que sale, yo simplemente he puesto aquí lo leído en otros sitios. Suelen cumplir mas los plazos que amd.
Digo que me quedo con Ryzen pero creo que vega llegará tarde y aunque este birn le pasaran por encima.
Puede que tengas razón, o puede que no... ya sabemos lo que pasa con todo lo que no es oficial, hay que cogerlo con pinzas sea de donde sea.
De todas maneras comparando compañias son muy diferentes... desde lo más basico como la diferencia de presupuestos, a las politicas.
Espero que te equivoques, y VEGA llegue un cacho antes, aunque empiece siendo como unidades "limitadas" hasta que las fábricas puedan sacar en masa.
Exacto, ojalá me equivoque. Si lo hago me voy a amd.
gddr6? ajaj la memorias gddr ya estan exprimidas casi al máximo; si lo hacen seguro sera con HBM2 que son mas frías, consumen menos, no ocupan mucho espacio porque se integran en el chip, etc.
Secundo lo que dices, totalmente. Si en algo está teniendo PROBLEMONES esta generación de tarjetas es con las memorias y su disipación. Cada vez se ha ido haciendo más importante integrarlas en la disipación y cada vez dan más problemas de temperatura y rendimiento. Que se lo pregunten a algunos ensambladores de 1070s y 1080s que se les fríen como huevos...
En cuanto HBM se convierta en el estándar de memorias (que lo hará en breve), nadie querrá dar un paso atrás y sacar cosas como la GDDR6. Y menos una empresa como Nvidia, que no piensa permitir que la competidora tenga la exclusividad de un nuevo elemento premium que ellos pueden usar también y pedir un sobrecoste por él, como llevan haciendo 10 años xD
De hecho ya esta planeado el lanzamiento de gddr6 para el 2018 desde hace un buen tiempo.
Pues la hostia que se van a pegar como no solucionen los problemas que está dando la 5 va a ser minina. Algo me dice que el estándar HBM está a la vuelta de la esquina, simplemente por el sobrecoste que va a suponer la diferencia de diseño en refrigeración. Pero bueno, yo no soy ingeniero, así que ya veremos.
Por el precio y lo difícil que es actualmente producirlo en masa veo complicado que se vuelva un estándar le tengo mas confianza a gddr6 que tiene fecha de salida en 2018.
Pues yo no le tengo confianza a una memoria que presumiblemente será más volátil que la gddr5, salvo que tenga planeado freír huevos con la gpu xD
Pues no se sabe nada del funcionamiento real del hbm2 por el momento, se que actualmente se usa en la serie tesla pero no encontré comparaciones reales. Con respecto a las memorias sinceramente esas grandes mejores singuen siendo poco y nada realmente basta con ver las memorias rams entre ddr2 vs ddr3 vs ddr4 no hay grandes cambios que se pueden apreciar realmente aunque uses memorias del doble de velocidad en aplicaciones reales no suele demostrarse su gran incremento de rendimiento. Después de todo la memoria es un soporte para el procesador para que este consulte por información que se almacena en ella por lo cual tiene mayor relevancia el cpu (en caso de las gráficas GPU).
y por que un nuevo desarrollo de memoria de alto ancho de banda estando hbm que ha demostrado el rendimiento y consumo que tiene, podria ser por que amd fue uno de los desarrolladores y no quieran agachar la cabeza ya que hbm esta llegando a 1 tera de ancho de banda y un consumo buenisimo no?
El problema con esas memorias esta en su producción en masa y su costo. Si los costos llegan a elevar mucho el precio de las gpus y realmente no hay una gran mejora en lo que respecta rendimiento real simplemente no se va usar en todas las gpus. Realmente el uso de memorias hbm y hmb2 tiene poca importancia en resolución 1080p o 1440p recién en 4k gana importancia aunque realmente no hay una diferencia muy grande ya que el factor mas importante es el GPU.
Hombre si vuelve Nem. No te veía activo desde las Fury xD
NEM siempre esta.
Drivers alpha... qué "raro" en AMD... una gráfica que sale con un driver sin pulir, no me lo creo xDDD
Te recuerdo que no ha salido aun
Ni estarán para cuando salga... a eso ponle el cuño.
No, mejor pon tú el culo XD
sin objecion alguna NVIDIA tiene los mejores drivers desde el inicio por que invierte un paston en optimizar , otra realidad es que sus arquitecturas necesitan optimizacion por drivers mas que las de amd , y cuando pasa el tiempo y dejan de optimizar esto se ve como nvidia pierde rendimiento y amd va ganando poco a poco aparentemente y por mejoras en drivers ,
en este video lo explica un ingeniero de nvidia como estan emulando el software por hasta un año para su arqutiectura para que funcione lo mejor posible
https://www.youtube.com/watch?v=650yVg9smfI
Ese disipador del minuto 1:54 no es un Wraith de AMD? JAJAJA no jodas. Igual me equivoco, pero lo parece xDD
no lo es , parece que estaban usando un equipo oem ni la placa esta entra las que se ahn dejado ver en el ces. :D
Si después de un año y con una memoria que es 20 veces mejor que la GDDR5 y sacas pecho es un problema pero gordo xD
Correcto... aunque cabe mencionar que aun AMD va desfasada en una generación respecto de nVidia, digamos que esta generación de nVidia debería estar compitiendo desde el inicio con VEGA
y Polaris?
tomando en cuenta polaris... pero con vega empareja por muy poco tiempo!
bro si te soy franco creo que AMD tomo la mejor decision parece que no tenian lista a VEGA a tiempo y para no quemar el dinero han preferido retrazarla , y parece que van a aprovechar a hacer grandes cambios , el año pasado desde octubre hubo rumores que llegaba y parece que era el plan pero creo que aun era poca potencia es lo que creo que fue aunque no lo digan :D
Completamente de acuerdo... varias veces les paso, que por sacar cosas apresuradas... se les fue todo abajo, en este caso espero puedan ir más rápido porque desde hace bastante tiempo van desfasado y podrían ir recuperando terreno
En serio le ha puesto cinta aislante a la grafica para que no se vea la conexion de la fuente de alimentacion? Que tonteria no?
Todo lo contrario, asi no dan pistas a nadie (ehem NVIDIA ehem) de que estan presentando ni que traman... Mucho mejor para "pillarlos por sorpresa"... Si es que hay "sorpresa", claro.
Lo raro es que tapen los cables cuando con todos los shaders desbloqueados esta claro que consume 300W sino mas, aunque dudo que la saquen con todos los shaders y sospecho que son mas de 4096 que son los que tiene la fury X y esta tiene el chip casi tan grande siendo una litografia de la mitad del tamaño, ahi me encaja que son muchos mas.
Lo claro es que usa 2 conectores, no solo 1.
Que luego sea 6+6 o 8+6 o 8+8 ya esta por ver...
Tambien al ser una version "alpha" y tampoco ser realmente una de referencia vete tu a saber... Pueden haberle puesto mas conexiones PCI-E para probar clocks y voltajes (junto al sensor por USB instalado, tendria sentido).
De momento, lo unico "confirmado" es que puede correr bajo aire (porque ese disipa claramente es tipo blower de aire, no el AIO a la Fury X)
Ojala salga con los ventis de la FURY y no la caguen piniendole un mini cooler para que alcance los 100 grados, si lo hace asi tendra un buen comienzo siempre y cuando no se les suba con los precios.
Hombre, parece ser que usa un disipador de diseño similar/igual (luego por dentro quien sabe si lo han cambiado, probablemente si) al de la RX480.
Habrán usado pasta metálica y disipador de cobre jajaja.
Un peltier como en las HD 6990 xD
Yo apuesto por 5120-6144 para su versión más potente (mono-GPU).
No estoy seguro si llegará a tanto... Fijate que el Die en si no es tan tan grande, aun con un proceso de fabricación menor, no se yo si cabria en el chip mostrado...
Mmmm puede ser, de todas maneras compara el Die de la Fury X, todo depende del IPC que tenga. Voy a ver si por internet puedo averiguar el tamaño del die y sacar suposiones
Si, pero por mucho o muy poco IPC que tenga, en un espacio X no puedes poner mas de lo que cabe xDDD
Me refería por el rendimiento en si, está claro que por núcleos si tienen un tamaño concreto hay un tope y más no entra jajaja.
Por reddit comentan que estaría entre 520-530 mm2, teniendo en cuenta que la Fury X es de 596mm2 pero el doble de proceso de fabricación... Me da un teórico máximo (si se mantuviese la arquitectura) de 7147 núcleos. No me parece muy descabellado los 5120-6144, de todas maneras son suposiciones jajaja pajas mentales.
Tambien hay que tener en cuenta que al ser diferente arquitectura como esta montado todo "por dentro" es diferente asique puede variar.
Supongo que podrian llegar a 6144, pero vete tu a saber si vemos eso en la clase Mainstream-Enthusiaust... Tal vez se las guarden para las Pro y demas...
Ya por eso decía lo de si fuese misma arquitectura, a saber, ojalá no hagan un Nvidia como con la Quadro P6000 y la Titan XP, recuerdo esos tiempos en los que salió la Titan con doble precisión desbloqueada y con el máximo de núcleos.
Que por cierto, ojalá AMD tire en doble bien con sus versiones de consumo, si es así creo que ya casi al 100% que mi próxima GPU será AMD, también por cambiar, empecé con AMD y ahora tengo Nvidia, hay que ir alternando jajaja.
Yo tambien, de AMD a mi GTX 970 y ahora, la proxima (pero ya tirando pa un futuro un poco lejano, que aun no he hecho ni OC a la 970...) va a AMD fijo.
y esta bien no cazarse con ninguna marca , aunque no sea mi caso yo si soy ROJO por experiencias desde 3dfx y lo que vengo viendo de la politicas de nvidia vs las de amd, :B
Si, yo siempre me he auto-denominado "fanboy de AMD" (ojo de ATi no tanto...).
Mas que nada por las excelentes experiencias que me ha dado el Athlon 64 (si, si, superviejo y demas pero en fin...)
Aunque ahora monte todo Intel y Nvidia (simplemente se dió la casualidad). Pero vamos, siempre me ha gustado mas AMD, en graficas no tanto, sobretodo en tema de CPUs/Placas Base y en especial en las BIOS y el overclock.
Y 3DFX ohhh, back in the old days... Aun me dan risas cuando dicen que NVIDIA inventó el SLI, esos no conocieron la Voodoo 2 xDDD
Yo a una hipotética versión de 6144 le pondría refrigeración por turbina Rolls Royce xDD
Pillarlos por sorpresa te suena la frase " espionaje industrial "
No hay forma de que AMD pille a Nvidia por sorpresa, Nvidia lleva recortando y guardando chips desde hace años, mientras AMD viene con la lengua afuera poniendo nombres llamativos a sus drivers jajajaja.
O mas bien, NVidia se ha marcado la de Intel y ha estado rascandose los huevos sin competencia.
La serie TITAN es prueba de ello, antes de Kepler, te vendían el chip más potente en una x80.
Yo creo que ambas. Pero vamos, tengo claro que Nvidia está preparada, si llega el día que AMD saque una GPU que plante cara a la gama entusiasta de Nvidia, al día siguiente tenemos una 1090 xD
Seguro que estas tán "cansado" de ser un poco troll fanático de algunas marcas xDD.
¿Que os motiva a los de tu gente a trollear todo lo que pillais de otra marca? ¿sobretodo si teneís la marca que gustais en vuestros PCs?
Mira su "firma de usuario" disqus, después mira la mía XD
lo paradojico es que CANSADO va con micro INTEL y sus graficos integrados no tiene grafica dedicada es algo que ya lo ha comentado por aqui varias veces, lo que es respetable yo no digo nada de eso ,
y Faemino lleva AMD?
https://media.giphy.com/media/b015MKliggnxC/giphy.gif
Hombre, "pillar por sorpresa" es algo que se hace adelantandote, no llegando 8 meses despues xD
Y si Nvidia no ha sacado aun la 1080 ti es precisamente por esperar a Vega
¿Y si sale para competir con Volta? Eso sería adelantarse a Nvidia
Si, en ese escenario si, pero eso es imposible.
Porque en esta misma noticia ves que se enfrenta a Pascal
Luego estará la 1100 (Pascal 2.0) y luego Volta en 2018.
Vega no competeriá con Volta.
Esta será una Fury X algo por encima de la 1080, nvidia sacará la 1080ti para compensar, y despues será vega vs Pascl 2.0 (1100)
Bueno al paso que van (llevan saliendo rumores de vega desde hace meses ya) igual si que viene a competir con Volta en 2018
Oye pues ojalá, porque si saca una arquitectura que es como la que será Nvidia dentro de 2... si que iba a espabilar a Nvidia si xD
Se enfrenta a Pascal porque es lo que hay actualmente en el mercado. ¿Pascal 2.0 cuenta como Maxwell 3.0?
Puedes contarlo como quieras xD
El caso es que probablemente el panorama en rendimiento no vaya a cambiar.
Aunque bueno, tal vez si esté bien contarlo como Maxwell 3.0.
Ya que Pascal ni existia en la hoja de ruta, pero se ve que ante Polaris Nvidia decidió guardase Volta y sacar Pascal.
Y si ahora retrasa Volta a 2018 para traer un Pascal 2.0 es que va como 10 pasos por delante.
10 o 100! O están desarrollando una arquitectura nueva intentando alcanzar a AMD en cómputo asíncrono por hardware y se les está atragantando, ahí son ellos los que van 10 pasos por detrás
En serio?
Aparte de que no te voy a poner enlaces explicandote que el "async compute" es una forma entre muchas de computacion ( y que Nvidia decidió apostar por el "concurrent compute"), te parece a ti que traer refritos y aplastar a la competencia guardandote lo potente es atragantarse con algo? xD
Ya me leí en su día el método Nvidia comparado con el método AMD, así que no me pongas enlaces, sé lo que hace y cómo lo hace cada una
Entonces no caigas en el marketing, porque en la practica es lo mismo y depende de como se implemente.
Pero luego en 3Dmark todos llorando porque incluso con async gana Nvidia.
Y crees que eso es diferente en juegos?
http://images.anandtech.com/graphs/graph10486/82854.png
Hablamos de atragantamiento? venga ya tio.
El TimeSpy, el cual se desarrolló sin adaptar el 100% de las posibilidades de DX12 para que Nvidia no quedara en ridículo, gran ejemplo (de maletines)
Ahora "explicamos" hechos con conspiranoias?
3Dmark vive de la imparcialidad y no veras un solo argumento coherente respaldando semejante falacia.
Lo que pasa es que si sabes la historia, cuentala bien.
AMD fue la primera en usar computación asincrona, y los juegos que la aprovechaban forzaban su activacion en Nvidia. Lastrandolas de gran manera.
Hasta que Nvidia capó el async en maxwell via driver y realizó su computación asincrona (concurrent).
3D mark soporta AMBAS y esa es la unica realidad, que en igualdad de condiciones hacen lo mismo. No exactamente igual, pero si procesan ambas la computación asincrona
De hecho esa historia ahi murió, porque los fanboys rojos ya no tenian donde agararrse.
3DMark vive de la imparcialidad, seguro que sí... pues ya hubo cosas turbias en el pasado. Conociendo a Nvidia y sus políticas son capaces de cualquier cosa
Si quieres apoyar una conspiranoia con otra es cosa tuya.
Pero entonces el tema no deja de ser muy simple.
El test es una prueba sintetica que tiene que procesar la gráfica, y quien es capaz de hacerlo mejor ofrece el mejor score.
Maxwell no soportaba el async compute, y por eso te veias comparativas con async vs maxwell. Desde Pascal (que si lo soporta, como para que vengas a decir movidas) que no ha vuelto a haber una comparativa asi por este mismo motivo (ya no tiene sentido).
El tema es que aunque haya pruebas fehacientes son conspiranoias, pues muy bien. Mejor dejamos el tema, yo he venido a hablar de
mi libroVegaSon conspiranoias precisamente porque no hay pruebas fehacientes, por haber no hay ni pruebas de ningun tipo.
Pero si, mejor dejarlo.
Diria que es culpa mia por meterme cuando reconoces no ser imparcial, pero reconoce que ahora me has buscado tú xD
Realmente es fácil deshacerse de las pruebas. ¿También eres de los que no cree que GameWorks destroce juegos para la competencia?
Deshacerse de las pruebas?
Vamos a dejarlo anda xD
Es un famboy chistoso de por aqui, a cada uno que opina/critica lo que hace amd sale a decirle cosas xDD jajajajajajaja
Me gustaria ver como estarian sin las tecnologias que a traido AMD, estarian aun con DDR2 xD
No me malinterpretes.
Terror si no estuviera AMD y ojalá le haga bajar unos cuantos escalones a Nvidia, que si se cae por las escaleras de paso, me alegraré xD
+1 no quiero que AMD tumbe a Nvidia quiero que la baje del burro y haya competencia sana y precios realistas.
Otro lo habría hecho tarde o temprano, eso es cómo decir que sin SEGA las consolas jamás habrían tenido acceso a Internet.
No es lo mismo, el acceso a internet ya existía Gddr5 y sobretodo la tecnología HBM raro lo veo que hubiese existido, quizás algo parecido pero no lo mismo
Pero si no puede ni con Pascal de que éstas hablando
Pajas mentales del chaval jajaja
https://youtu.be/H0gKK-lu8eQ?t=9
Nvidia se regatea a sí mismo! fichálo papá, fichálo
Bueno, me refiero a que la grafica rinda mas de lo previsto (o de lo que prevee NVidia).
Que den una sorpresa, vamos. Sea en consumo, potencia, precio, o lo que sea xD
Para no revelar ningún dato de un producto que está en desarrollo, tiene toda la lógica del mundo, aunque podrían haber usado un método menos cutre
El método menos cutre ha sido no mostrarla abiertamente, solo mostrarla a algunos medios bajo acuerdo de confidencialidad. Y es que AMD no ha dejado hablar a nadie sobre ciertos detalles, eso si, ya se a visto el tamaño que tendrá la GPU, y es que AMD no ha dudado en mostrar como sera la GPU bajo el disipador de las VEGA.
Pensad que están a 6 meses de lanzar el modelo definitivo.
Después de 6 meses con pascal 2.0 ya no sirve de nada sacar esa gráfica o la sacas muy barata y con una potencia brutal o te comes los mocos otro año mas.
Igual nos cuelan un doble conector de 8 pines así de jajas.
Decir tambien que en la entrevista los chicos de PCWorld dijeron que claramente Freesync estaba ganando la batalla a Gsync y que si cree que Nvidia daria soporte de dicha tecnologia (LIBRE) para sus GPUs y a Raja se le escaparon las lagrimas de la risa.
No me extraña...es que en unas pocas cosas Gsync es superior a Freesync (como pasa siempre con tecnologías opuestas que buscan el mismo fin), pero en el cómputo general Freesync es mejor por un ligero margen a un precio infinitamente menor, y eso tiene que caer por su propio peso, y más aún tratándose de un componente infravalorado a menudo como son los monitores.
Eso sí, si yo fuese CEO de AMD, les daba soporte sin límite...eso sí, que paguen cuota de patente: que por cada gpu y monitor que Nvidia venda, los inventores se lleven su parte correspondiente. Y si no pueden mantener los precios competitivos por eso, que se jodan y bailen.
La gracia es que FreeSync es libre y Nvidia lo podría usar sin pagar nada, justamente no le da soporte por eso, porque ellos no se llevarían nada de dinero con FreeSync.
la mejor respuesta es no comprar nada con gsync, verías como aceptarían pasar por el aro del freesync.
Pero por desgracia siempre habran FanBoys.
Demasiado buenos son, que ya parecen tontos a veces. Muchas veces se dice que las empresas no son ONG's, pero AMD a veces parece que tiene vocación de ser una. Vivimos en unos tiempos donde una empresa con logo mordido y alma negra ha llegado a patentar un "diseño" de smartphone y se está crujiendo a demandas por patentes cada semana...y AMD tiene que defender su terreno con lo bueno que van sacando.
La tecnología libre es el germen del progreso, eso todos lo hemos aprendido ya...pero cuando enfrente tienes a un gigante verde que juega sucio cada vez que puede, no hay más remedio :/
Asi tendria que ser, si es que parecen masocas.
Freesync es solo un apodo que le ha dado AMD al VESA adaptive-sync, el cual es un estándar completamente libre, no tienen ningún derecho a pedir cuotas por ello, por otra parte, nVidia debería darle soporte de una maldita vez.
¿Mejor en qué exactamente? Jajajajaja, digan que más barato un scaler distinto que un módulo entero... pero ¿mejor? xDD
Ve a ver unas cuantas reviews de tíos que saben del tema, te lees unos cuantos artículos donde comparen el Gsync y el Freesync y después vuelves.
Si pones en una balanza los dos sistemas SIN tener en cuenta el coste económico, FS gana por poco a GS gracias a su capacidad de implementación. Y no lo digo yo, lo dicen los tíos que saben más que tú y que yo y que por eso cobran.
Normal, yo tengo una 1080 y me he comprado un monitor con freesync por que la versión gsync constaba más del doble... Gsync es mejor, pero o le bajan el precio o el mercado se va a llenar de monitores freesync y cuando la gente actualice su GPU se pillará una AMD para aprovechar su monitor.
bueno, gsync en si no es mejor, de hecho la forma en la que trabaja gsync entorpece más que la de freesync, hay un par de cosas en gsync que si pueden resultar mejores, pero por el resto de cosas freesync es superior y no solo en el precio.
Mejores latencias y funciona en todos los juegos, gsync es superior, pero el precio es una locura.
Ojo con el tema de las latencias, que ya se ha demostrado que los resultados son sumamente volátiles. La diferencia es mínima en muchos casos, pero añado una cosa más: Gsync tiene una flexibilidad mucho más limitada, y no funciona con tecnologías como Smart Insight (que algún día se adaptará en generalidad), una aplicación que potencia la visibilidad y aplicación de color, brillo y gamma instantánea.
A lo mejor ando equivocado con lo de las latencias, pero el tal Linus lo hizo hace tiempo en un vídeo que me pareció muy correcto, (aunque ya es un poco viejo y tiene año y pico).
De todas maneras, si hablamos en tu caso de barbaridades como EL DOBLE...pufff, por más bueno que sea, el doble es demasiado :/ Yo iré de cabeza a por un monitor de gama básica-media, y tengo claro que será algún AOC, LG o cualquiera de esos con Freesync ^^
Más verde que Linus... Y encima dijo que FreeSync era mejor.
Eso me digo a mí mismo. Para que tíos que se han declarado abiertamente pro-Nvidia (e Intel) en vídeos con millones de visitas se estén desdiciendo a sí mismos y apostando por AMD, algo muy bueno deben estar haciendo. Y esos tíos saben muchísimo más que nosotros: no porque sepan más que muchos de los que estáis aquí, sino porque la posición a la que han escalado les permite tener un acceso informativo del que todos aquí carecemos. Yo me guío por eso, la verdad.
Lo que no va a hacer es limitarse a NVIDIA y perder el resto de gente.
Es como si eres un youtuber sobre futbol y te dedicas a hablar del Atlético Bilbao. Lo que da ganancias es hablar de todos lo equipos. Eso no significa nada. Bueno si, que no es tonto.
Pero cuidado que él no lleva ningún logotipo de AMD.
Pues hay muchos por ahí que se dedican a hablar únicamente de AMD/Nvidia, y gente como Jay han tenido épocas donde lo único que podías ver en sus vídeos era el color verde. Basta con entrar a su canal y ver sus vídeos.
https://www.youtube.com/watch?v=iYWzMvlj2RQ
Muy verde no parece.
sí, verde
de cojoneshttps://uploads.disquscdn.com/images/08c3a0ec874bb5be0deb4a67f67770723e508f869c4ce5b3a47b7e7a99d3c0ef.png
Creo que lo he visto. Usaba una cámara profesional que capturaba no sé si 1200 fps o algo así. Las latencias generalmente favorecían a gsync salvo en algún título. Pero como bien comentas la diferencia era poca.
Sinceramente, lo mejor ahora mismo si tienes potencia gráfica de sobra es Fast Sync xD
Pues también, pero claro...a nivel de usuario estándar sigue siendo la comidilla (que tampoco lo entiendo...si vas justo de pasta te vas a Freesync y punto XD)
De todas maneras, yo no soy entendido en el tema, pero gente que lo ha probado, ha reportado que Fast Sync no es tan bueno como parece: en muchos títulos no funciona bien, y tienes que tener mucha potencia gráfica de sobra, porque si tu gráfica no saca 2 ó 3 veces el número de frames de tu display, vas a ver las cosas raras. También se ha comentado que da problemas en configuraciones mono-gpu, mientras que casi todas las albricias recaen en configuraciones de SLI.
Al final, la respuesta actual de Nvidia ante la sincronización y mejora visual de sus equipos es: o te gastas el doble en un monitor con Gsync, o te gastas mucho más en pillarte un SLI de 1070s ó 1080s XD (y de nuevo tenemos que cagarnos en todo porque no permiten SLI de 1060s, no vaya a ser que pisen a su niña bonita xD)
Joer, ya me callo, porque cuanto más hablo de estas cosas más rojo me vuelvo mientras pienso el dinero que tengo en la cartilla del banco Jajaja
Te comento que yo tengo un display 75 Hz, y Freesync funciona bien a partir de 75 fps. Ni más ni menos. Añadiendo mucho menos input lag que gsync y freesync. Sinceramente prefiero ahorrarme el precio de estas tecnologías e invertirlo en potencia gráfica
Hombre, eso todo el mundo...pero por eso digo que si no tienes dinero para invertir en más potencia gráfica, Freesync de cabeza porque su punto fuerte es que prácticamente no tiene sobrecoste (hay monitores freesync muy baratos).
Lo que sí no entiendo es a la gente que se compra pc nuevo y se va a por una 1060 con un monitor Gsync, cuando por el mismo precio puede pillar un monitor "normal" (un pelín mejor con suerte) y una 1070 :/
hablas por el ghosting que había hace unos años? por que en la actualidad está solucionado, lo de funcionar en todos los juegos es según tu lo configures en ambas tecnologías, en otras palabras, ambas tienes que activarlas en sus respectivos paneles de control, no es el software el que tiene control sobre dicha tecnología, es el controlador de la GPU el que lo tiene.
Solo voy a decir... OBS... ese programa que mucha gente usa para capturar vídeo... con G-Sync no trabaja muy bien que digamos... Y tampoco sirve de una mierda si juegas en ventana XD
Bueno, teniendo shadowplay a no ser que te dediques a hacer streaming y quieras poner 1000 cosas por la pantalla no necesitas OBS xD
https://uploads.disquscdn.com/images/164dfeff07f0806ebfeed5f85712d3dc0eb0f1450681f5c8555c7811542cfdae.png
Raja es un locuelo.
A este punto ya se ha convertido en un meme con patas, ya le importa todo bastante poco, va ahi de risas y ya xDDD
para mí ya es oficialmente The Dropper of GPUs
https://youtu.be/Y8tDaPLHxiE?t=213
Veamos... un monitor Freesync vale 255€ (parten de los 125€) para un AOC G2460PF 24" LED 144Hz, uno G-sync del mismo fabricante y características son 419€ (AOC G2460PG 24" LED), estamos hablando de casi el doble de precio.
AOC nunca mas!, ni con un palo, tengo uno 1080p y tuve que comprar otro porque no lo soportaba mas...
¿Que le pasa a AOC? Mi monitor es AOC y aún no ha explotado xD
Perdio colores, cuando estas en una escena oscura se nota el sangrado debajo, la nitidez comparado con otros monitores TN es horrible, le sumo las lineas que aparecen de la sincronía, cuando cambias a gris con blanco se notan...
Lo he comparado con otros monitores, hasta con unos benq de 19" y eran mejores en todo sentido, ahora lo tengo como monitor secundario, compre un LG ips.
Bueno, en mi caso he comprado un 2K 144Hz por 299€, por lo que no esperaba que fuese demasiado bueno xD Pero está bastante bien, eso si, la configuración de fábrica del monitor penosa, pero ajustándolo a mano he logrado que se vea bastante bien (tengo dos pantallas y la segunda es IPS y al compararlos hay que fijarse mucho para ver la diferencia). La única pega es que cuando la pantalla está entera negra se nota que la zona central tiene como más luz, pero solo se nota al estar la pantalla negra al 100% a si que no me importa demasiado. Yo estoy contento, por lo que me ha costado esta de puta madre.
Eso que dices, que se nota mas luz al estar la pantalla negra se llama sangrado "bleeding" y es lo mismo que noto pero en la parte inferior, igual es un 1080p y aunque hay mucho mejores, como monitor secundario sirve igual.
Todo aquel que me lea, recomiendo para 1080p monitores Asus, Lg, Dell, en lo posible IPS no compren otras marcas como AOC porque lo lamentaran, al menos que solo los usen para navegar.
No es que sea el doble siempre, es que el módulo te lo venden 200€ más caro, en tu ejemplo da la casualidad de que es el doble, por ejemplo tienes el ASUS PG278Q (Gsync) por unos 698€ y el Asus MG278Q (Freesync) por unos 489€
Timazo by Nvidia
Eso es lo que dije yoo el otro día, sería el movimiento lógico. Pero creando una suya
El Chapuzas en su línea...pero luego ves que Jay, Linus, Paul y todos los que se mueven por yankilandia están que no cagan con lo que va a traer AMD y es imposible no hypearte.
Como el hype quede en humo de nuevo, AMD se puede ir a tomar por saco perfectamente, pero como esto sea volver 10 años atrás en el tiempo, ¡Ay, mamá! Espero que dentro de 2-3 meses estemos hablando de revolución roja en el mercado, y no de la hostia del siglo. Siempre lo primero es más bonito para los consumidores y el avance de la tecnología en sí. :)
http://www.recreoviral.com/wp-content/uploads/2015/10/Preguntas-que-s%C3%B3lo-se-pueden-contestar-con-una-mentira-10.gif
JayTwoCents y Linus son muy pro-Nvidia, así que si ellos están que no cagan debe ser un bombazo
Yo sigo a Jay incluso en Twitter porque me cae simpático, y el tío sigue aún tocándose por las noches con la RX 480 GTR que le dieron xD
Exacto, que use Titans en su Torre no significa que sea pro-Nvidia, lo que pasa es que tiene mucho trato con EVGA y por eso puede dar esa sensación, pero yo no lo veo fanboy vamos.
Como para no, le mandaron una de las mejores 480 que existe, ocea una barbaridad, ese chip estaba elegido a mano para mandarlo para review xD
Entonces espero un imponente bajada de las 1080...si tan perfecta es la VE(r)GA sería comprensible una sorprendente bajada de precio...a no ser que VEGA valga a precio de oro.
Si, ya que en respuesta a Vega saldrá la 1080ti, que no costará mucho más que la 1080 de salida y hará que esta baje 100-200€. Vamos, lo que ha pasado en las dos generaciones anteriores.
Genial para mí ya que la KFA2 HOF costará menos por ésa lógica...no si al final le deberé dar las gracias a una compañía que odio (junto con HP)
¿Odias a AMD? Tú eres más de sobreprecios y tecnologías propietarias, ¿verdad?
Odio a quién me falla 2 veces, con una reparación incluida....por no hablar de las restauraciones de sistema que he debido hacer cada vez que a mi AMD le daba por crashear. Si quién me ha fallado se llama HP y AMD pues mi gusto no lo tienen. Eso sí, que sigan sacando cosas las cuales la gente flipe de lo "geniales" que son. Yo no me voy a creer eso, yo sólo veré mi presupuesto bajar de precio y me hypearé más.
Ah, ya me acuerdo de ti, tú eras el que no tenía ni puta idea de informática! Bueno, ya estaba todo dicho
Con tu gran educación sí...
Sólo detesto que me fallen más de una vez cuando doy una segunda oportunidad. Cuando me pire de mi mierda no vuelvo a la marca ni loco...Lo siento, soy un cliente,mejor dicho un usuario,decepcionado con la marca. Con ambas de hecho por no tener claro de quién es el responsable de tal deshonra para la tecnología. "Ni puta idea" por estar indicándome y no querer tu elección. Con eso te has desacreditado, lo siento pero hay cosas que debes tener en cuenta antes de hablar. Creía que todos los metaleros éramos respetuosos,veo que no :)
Perdona, a veces me expreso muy vehementemente, lo he escrito tal cual me ha pasado por la mente
Al PC le sucede que cuando le intento instalar el programa de los drivers de AMD, crashea.
Sabes que en Steam está la opción de actualizar los controladores o algo parecido...¿no? Pues yo lo iba a hacer cuando en mitad de la instalación... Pantalla en gris.
Reinicia, reinicia,vuelve a reiniciar...Hasta que me sale lo de restaurar sistema.Tengo pavor de volverlo a intentar desde aquella vez. Eso fue lo último que me pasó. La reparación pues en pocas palabras: PC moribundo,casi muerto.no sé si aún tengo el análisis de los errores del PC que hicieron los de la tienda.
Nunca he visto nada de instalar controladores desde Steam, yo no los actualizaría así. Ya te dije, yo me desharía del sistema operativo pre-instalado por HP porque es una versión de ellos personalizada con su recuperación de sistema y sus mierdas, y le metería un Windows 8.1 o incluso Windows 10 desde cero. A partir de ahí seguro que no tendrías problemas instalando los drivers que necesite
Cuando en la tienda me arreglaron el PC me desinstalaron el SO y me instalaron W10. El crash con pantalla en gris vino después de la reparación. Steam tiene una opción para actualizar los gráficos me parece, ahora llego a casa y te digo qué es exactamente.
hp es la marca porculera por excelencia no me extraña que hayas tenido problemas pero ahi creo que no tiene nada que ver amd , mi hermana cualquier dia tira su hp por la ventana
Ya ves. Me vi la review y cuando la puso a 1400 y pico y la puta tarjeta no subía de 60-62 grados y chupando menos de 130w yo ya flipaba...Creo que no me dará el presupuesto para subir de una rx 470 decentilla, pero como tenga algún ingresillo imprevisto y pueda permitírmelo, iré a por esa tarjeta de cabeza. Pata negra, la verdad O.o
Es un salao, yo me parto con los comentarios que hace en sus vídeos
Yo me trago todos los comerciales que hace con sus colegas. El de navidad con el negraco no tiene desperdicio jajaja
¿En el que miran para abajo para comparársela, y luego son cajas? XDDDD
Dios mío, es genial jajaja
Linus subio ayer un video donde compara dos pc's supuestamente iguales menos los procesadores, que supuestamente son el I7-6900 y el nuevo Ryzen y segun entendi dice que no hay casi ninguna diferencia en el Battlefield 1 en 4K.
Linus puede decir misa, las comparaciones que hacía desde que empecé a verlo en la época de las AMD 6000 series eran de risa, se le veía demasiado el plumero verde.
Desde luego, si con un 60% más de núcleos y memorias HBM2 no superan a la 1080 es como para plantearse seriamente el seguir diseñando GPUs... Ahora bien, en las pruebas de rendimiento que han ido enseñando rendía como una 1080 con un ligero OC, espero que mejoren eso, si no, les va a pasar lo mismo que con la FuryX, 1080ti y adiós Vega, y mi monitor freesync no quiere que eso pase xD
Esperemos que no, de momento esta en una fase temprana sin pulir nisiquiera BIOS ni Drivers, yo diria que esta como mucho en un 70% de maduracion.
Mientras no tarden 3 años en "madurar" los drivers...
Sabes tan bien como yo que AMD se a puesto las pilas en los drivers ino mira la mejora de la 480 en tan poco tiempo.
Han tardado unos cuantos meses en pulir los drivers para Polaris, yo si actualizase, compraría la gráfica que el día de salida rinda más, por que al año siguiente la voy a volver a cambiar a si que me da igual si madura o no. Y ese es un fallo grave que tiene AMD, si, la 480 a día de hoy es mejor opción que la 1060, pero cuando salió no era así, y todas las reviews dicen que la 1060 es mejor, por lo tanto es la que más ha vendido y de poco sirve que varios meses después la cosa haya cambiado...
Puede que cueste más tiempo desarrollar controladores teniendo menos pasta y personal que la competencia, llámame loco
Evidentemente, pero ese no es mi problema, yo soy un cliente y busco el mejor producto, lo que pase con las empresas que hay detrás me da exactamente igual.
Pues compra Intel y Nvidia
Aquí le doy el minipunto a Iker, porque creo que tiene mucha razón. La mayoría de la gente que estos meses ha ido a comprar una tarjeta se ha pillado una 1060. A partir de ahora AMD le puede ir recuperando ventas a Nvidia, pero durante estos meses toda la gente que sigue reviews se ha pillado la verde.
Otra cosa son los que sigan viendo reviews y ahora estén cagándose en la puta por haber comprado la 1060 porque la polaris era peor XD Igual para la próxima se lo piensan, o igual caen en una espiral negacionista y culpan a AMD de la situación, rechazando sus productos porque no saben cuándo madurarán :/ A fin de cuentas, hace 4-5 meses la 480 pintaba bien jodida xD
yo si cambiara cada año me compraria una top de Nvidia sin pensarlo pero AMD va destinado a un publico distinco que cambia cada 2 o 3 años, es menos ventas si pero es mas gente la que estara interesada siempre y cuando AMD lo haga bien.
Yo diria que el 60%... lo que han llevado al CES es una unidad de prueba y desarrollo. Para nada es el modelo definitivo, es mas se lo explican a Linus, que el puerto USB 3.0 del PCB de la grafica es para conectarla a los equipos de pruebas, para registrar voltajes y temperaturas.
Aun asi, siento un prototipo, sin Bios terminadas ni drivers adecuados, te menee a 4k y 60~70 FPS Doom 4 da que pensar... ¿Es posible que VEGA rinda como 2 Polaris o incluso mas que la mayoria de Pascal?
Eso lo sabremos en Verano.
De paso, ese PC también tenia como CPU una unidad Ryzen (Zen 8 Núcleos)... vamos, que no solo han ido a mostrar GPU, si no tambien sus nuevas CPU (esas las tendremos a final de mes o febrero a mas tardar).
Tambien supongo que sera lo mismo que con polaris, esta es la version “founders" las versiones personalizadas seran algo más potentes
No creo, lo que si seran es mas frescas y vendrán con mas OC por lo que en si seran mejores.
haciendo mis calculos en base a una publicacion típica de rendimiento de una tarjeta de amd de borja en el chapuzas diria que mmm: ....... la gama alta de amd rinde como una 1070 en 4k y levemente superior a la 1060 en 1080p
La 480 actualmente es levemente superior a la 1060 en 1080P
la 1060 sigue siendo superior en mayor cantidad de juegos.
En que juegos xD
Lo de que Vega tenga un 77'7% más de shaders que Polaris (4096 vs 2304) aparte del resto de cambios en la arquitectura para ti no tiene efectos en el resultado
yo solo estoy aplicando regla de tres al "la rx 480 incluso seria tan potente como una 980 ti " del chapuzas hace unos meses atras
Sí, un rumor de la prensa amarilla del hardware que se publicó aquí, esos que hay que coger con pinzas. El caso es que ahora sí puedes hacer una regla de tres con el rendimiento de la RX 480 y aun así te quedarías corto, porque la arquitectura es distinta
Me late que la parte oculta trae algo que le falta al nombre
Radeon Fury x2
RX Fury... es posible... es mas yo diría que es viable.
"le baja los pantalones a la GeForce GTX 1080", qué jefe https://uploads.disquscdn.com/images/4f91612559e3b287083f6136e313d7f784d3307a992e785b5882ddeb12c3f042.gif
Raja es la 1080 y la chica de delante Vega 10 xD
ah que eso es una chica?
jajjaja , joer estoy que no me lo creo que el prototipo tenga turbina , nada de water cooling
https://uploads.disquscdn.com/images/2e109dae888044519fe86e4f8d43ceefa7df23847c62b16b7bec757a17d14a70.jpg
Y qué pinta ese usb ahí??
Pa la impresora xDDDD
Es para que la gpu use el Readyboost xD
Para que los ingenieros monitoricen en tiempo real el funcionamiento, es una muestra de ingeniería, eso en el modelo final no existirá
Muestra de ingeniería, es simplemente para que los ingenieros puedan sacar datos que necesitan.
Para recoger data de la GPU, parámetros y demás cosas, lo explica en el vídeo de linustechtyps:
minuto 4:10
https://www.youtube.com/watch?v=Y8tDaPLHxiE
Yo diría que pinta esa disipador tan pequeño, me da ganas de llorar
Para descargar los planos de la Estrella de la Muerte
puede ser para debugger es un prototipo , las muestras de ingenieria , ejem en polaris tenian unos picos donde antes iba el puente crossfire una conexion que en no esta en la version final
La gpu no es muy ancha?
El PCB agregado a la derecha sobra, es el extra de fase de desarrollo con el puerto de comunicaciones, la gráfica en sí es hasta donde está pegada la cinta adhesiva por arriba
Bueno sera mejor que la gtx 1080 pero seguro que la 1080 ti es mejor, van mejorando pero no pillan a nvidia todavía esperemos q al final se den la mano ....
Nvidia tiene el GP102 y seguro esconden el GP100 porque no lo necesitan, mientras venden como locos.