A escasas horas de su lanzamiento oficial, a las 15:00pm hora española (GMT +1), podemos ver los primeros benchmarks de la Radeon RX Vega 64 y la Radeon RX Vega 56 provenientes del portal chino ChipHell, en la cual revela lo que hasta ahora se estaba confirmando: el lanzamiento de las Radeon RX Vega es todo un fracaso.
Tan y como muestran las pruebas de rendimiento filtradas, su rendimiento en juegos, sacada una media de todas las pruebas, revela que la Radeon RX Vega 64 es un 2.94% más potente que la GeForce GTX 1080, gráfica lanzada hace año y medio, y que arroja un TDP de 180W frente a los 295W de la gráfica de AMD.
Esto no es una sorpresa, y realmente la GPU que se esperaba era la Radeon RX Vega 56, pero el fiasco se vuelve a repetir. Esta gráfica con un TDP de 210W es de media un 6.22% más rápida que la GeForce GTX 1070 (TDP 150W). En términos de overclocking, ofrecen una ganancia superior a Nvidia, pero seamos serios, nadie en su sano juicio va a comprar una GPU de referencia para hacer overclock
.Será en la tarde de hoy cuando podamos conocer oficialmente el rendimiento concreto de la GPU en cada área, el consumo real en vatios, además de las temperaturas y sonoridad a las que trabaja la GPU. Por ahora tenemos las incógnitas de la versión de drivers empleados o la resolución, así que esta tarde se verá si finalmente todo lo visto hoy coincide o hay diferencias.
En nuestro caso, gracias a que tenemos al mejor reviewer español, si la RX Vega 64 nos llega un par de horas antes del lanzamiento, prepararemos la review. En caso de que no nos de tiempo, no vamos a hacer ninguna review, se devolverá y emplearemos la información de un medio extranjero, pues por tierras españolas sólo se envía esta GPU por amiguismos, de ahí que sin pensarlo se haya comprado esta GPU para evitar tener que "matizar" las palabras.
Ya podemos confirmar las especificaciones de la Nintendo Switch 2 por parte de Digital Foundry.… Leer más
Llegan malas noticias para dos de los diseñadores de SoC más laureados del mundo. Y… Leer más
Ha sido la propia Intel, por medio de su cuenta oficial en X (Twitter), la… Leer más
Cuando sale una consola, sabemos que esta va a tener una vida útil determinada y… Leer más
Un día más estamos de nuevo con las licencias más demandadas de la mano de… Leer más
Los procesadores son una pieza fundamental en un PC, pues estos los usamos para realizar… Leer más
Esta web usa cookies.
Ver comentarios
Nada nuevo bajo el sol
AMD no está compitiendo. Ofrece un producto un 2% más rápido que un producto de rendimiento no máximo, 1 años más tarde y a un precio alto.
Si no hay competición, los consumidores pagaremos el pato, comprando tarjetas caras y teniendo que esperar cada vez más en la renovación de tecnologías de más rendimiento.
Los consumidores estamos siendo perjudicados por la ineficiencia de AMD.
Bueno... al menos han hecho mas competitivo el mercado de las CPU.... O eso parece...
Sí. No obstante creo que no han sacado los productos gama 3, hasta hace poco, para que la gente comprara la gama alta.
También estoy un poco desencantado por ello. Buen rendimiento, pero ... precios muy altos.
Me alegro de que seas optimista con la situación. Yo no lo soy.
Toca ver rendimiento en minería, pues creo que a sabiendas que la GPU era muy mala, pues que le quiten lo bailado, aprovechar la locura del minado de Ethereum.
Es que eso de "la hemos retrasado para tener stock", y que España tenga 100, Francia tenga 200... y ya no haya más stock hasta el mes que viene... es "rotosiano" xD
Esa es otra, gracias a la minería, los precios serán superiores al MSRP, y AMD ya ha avisado de ello. Apaga y vámonos.
A la gente que le gusta la minería, estará contento, porque seguro que será mejor que lo anterior. Pero me parece absurdo abordar, el tema de gráficas como negocio de minería. Yo creo que es una tomadura de pelo lo de Ethereum. Mi consejo es : no jugar con tema bolsa ni cosas por el estilo. Tenemos las de perder. Y la electricidad no es gratis.
a AMD le chupa un huevo de que van a usar sus graficas, si el minado les renta toda las ventas de gpu a ellos les importa poco o nada el mercado gaming, igual van a vender, mas bien parece que AMD se ira bajando poco a poco el barco gaming y se centrara mas en el computo por GPU.
Sería un gran error el mercado de criptomonedas es muy volátil, si empieza a caer en picado sólo les quedará el mercado gaming, pero si lo dejan de lado para entonces ya será tarde y habrán firmado su sentencia de muerte, pues muchos se pasarán a Nvidia cómo está sucediendo actualmente.
No me creo que el departamento de GPUs lo haga TAN MAL. Es que no le encuentro nada positivo. Si consume mucho, el rendimiento máximo es igual a una 1080 de hace año y pico, no es barata y no sirve para minar, COMO PRETENDEN VENDER? Es que hacerlo tan mal es hasta sospechoso
Una pena para todos.
He leído a muchos de nosotros comentar reiteradamente que AMD se metía en un jardín curioso al profundizar en HMB2 en el segmento usuario, pero bueno, las cagadas para nosotros, que si quiero algo potente me tengo que dejar +700€ en una 1080ti.
Lo dije en su día, Nvidia metiéndose en el mercado GDDR5X iba a joder a AMD, por eso mismo con Volta veremos GDDR6 y HBM2 sólo en productos muy específicos.
Exacto, segmento profesional y tal. Para gaming, si no salen los 4k 144hz, no interesa sacar nuevos hardware.
Qué curioso que se hayan retrasado los monitores de esas características en el lapso del prelanzamiento de Vega, ¿no?
xD nada más que decir.
Es normal, ninguna GPU iba a mover eso, y viendo que Vega no es capaz ni de acercarse a una GTX 1080 Ti, pues es una tontería, pues esos monitores no los mueves ni con 2x 1080 Ti.
Por eso digo, se rumoreó fallos técnicos, también puede ser una mera estrategia comercial.
No hay nada mejor que mantener el Hype arriba, AMD sabe de lo que hablo xD
Yo pensaba que se iba a meter en HBM2 antes, nVidia, pero, es que están sacando la tecnología poco a poco. El ancho de banda implementado en la generación anterior de AMD con HBM, es la misma que la empleada por Vega con HBM2.
No están aprovechando el potencial de HBM2, porque poniendo más módulos, podrían haber incrementado el ancho de banda. La fury con HBM1, 512Gb/s, y esta , Vega, tiene HBM2, con 480Gb/s o algo así. ¿Cómo se explica que usando una tecnología superior HBM2, al final opten por implementar algo de menos rendimiento? Si hubieran puesto otro módulo HBM2, sería más caro para ellos, pero con 700Gb/s, un poco más de overclock en la GPU y hubieran competido con nVidia en rendimiento máximo.
Y con ese ancho de banda la gráfica costaría mas de 900€ que vamos a estar claro que solo Eloi y su banda la compraría.
Ya, pero obligaría a nVidia a bajar el precio de su gama Titan, y le provocaría para que sacaran un modelo superior antes.
Ahora mismo nVidia está posicionada cómodamente en la gama ultra-alta.
Era más que fijo, NVidia está sa sacándole provecho a las Gddr5x y nisiquiera han llegado a su máxima velocidad.
A propósito Borja, tu que crees que vendra ahora, Pascal 2.0 o Volta?
ya se confirmo que será pascal 2.0 , aun queda silicio para exprimir , lo de siempre , sacan nm mas pequeño y siempre hacen 2 gama , la primera y la 2º mas pulida antes de sacar otra gama nueva
desconozco si es cierto lo de los 2.0 GHz
http://informaticacero.com/pascal-2-0-2017-relanzamiento-gtx-1060-gtx-1070-gtx-1080/
Edit: NO , no esta confirmada leí un articulo mal! sorry fallo mio
son solo rumores
https://www.infootec.net/nvidia-confirma-que-la-nueva-tarjeta-grafica-tendra-16gb-de-memoria-hbm2-y-contara-con-1-tbs-de-ancho-de-banda/
Vamos, que de aqui poco, al chino Juan se le va la castaña y saca la serie 2000 y sus 2070/2080 se ríen de las RX Vega 64/56 ?
solo con bajar un 10-15% los precios ya revientan el mercado.
Ademas de eso sacan una sola grafica que supere a su propia 1080ti, y le ponen el precio que quieran.
calla , aun queda la dichosa nano , no sabemos nada , dirán lo mismo que la dichosa rx470 creo recordar que 2 es mejor que la gtx 1080 y mas barata , jajajajajjaja ni de coña saldrá barata , la nano fail edition!
Da rabia, porque en las graficas ha habido cierta competencia en estos últimos años, y con poco dinero tenias para jugar. El problema puede surgir ahora si la brecha sigue aumentando.
Trujo , sabemos de sobra porque pasa esto , por el DX11 nvidia manda , por eso AMD esta ligada ahora con betsada para potenciar el dx12 o vulkan , y que se haga un poco mas estándar , desde mi punto de vista si todas las empresas dieran el salto a dx12 y vulkan , creo que nvidia tendría serios problemas , y harían algo como paso con la gama 900 que saltaron a la 1000 y dieron un buen salto de rendimiento , lo malo esque hasta la gama media cuenta como alta o media alta y seguirán así hasta que AMD saque potencia y destrone en precio
ahí estoy un poco pillado. No conozco bien las diferencias de dx11 y dx12.
Pero recuerdo algunos artículos donde dx11 era un lastre para amd porque no hizo su trabajo, y al final se lo tuvieron que hacer y sacaron dx12, donde las dos marcas rinden lo que deberían de rendir en dx11(donde solo rendia nvidia).
No se si me explico, ya te digo que voy pillado en esto.
Eso es mentira, probablemente sacado del gañán de hardware 360, lo que ocurre con AMD en dx11 es que no utiliza el multinúcleo, desaprovechando potencial, en dx12 si lo utiliza, pero es que su arquitectura es mucho mejor para dx12/vulkan que la de nvidia, que básicamente tiene que emular algunas características, pasa que por fuerza bruta están a la altura, pero con juegos más exigente se va a notar esa carencia.... y claro, estamos en lo de siempre, para cuando esos juegos salgan, el usuario de nvidia ya se habrá cambiado de gráfica y el de AMD puede ir tirando con la generación actual.
Lo de DX11 y DX12 tienes razon, como Nvidia es dominante en el mercado y sus tarjetas no dan para DX12 siguen con DX11 y como AMD no vende porque no es tan rentable y encima los mineros agarran todo lo que pueden, lo veo dificil que se masifique DX12 o Vulkan, y de aca a por lo menos por un año mas como minimo.
Y de las G900 a las G1000 la dif fue buena por el proceso de fabricacion ya que las empresas saltaron de 28nm (muy refinados) con las G900 a los 16nm (refinados) de las G1000 y es practicamente la mitad de consumo con un rendimiento muy bueno. Los 28nm deberian de haber muerto con las G700 para que las G900 fueran a 20nm pero como TSMC y GF estaban dandole prioridad a los Smartphones, ahi se iva toda la produccion de chips a 20nm y por eso Nvidia y AMD se conformaron con los chips a 28nm para las G900 y R200.
Aparte lo de AMD con los 14nm fue triste porque parece que no estaban tan optimizados como los 16 que eligio Nvidia y eso les paso factura en el consumo. O quien sabe, quizas si estuvieran optimizados y al final de cuentas lo que fallo fue el diseño en si de la arquitectura Polaris/Vega.
Lo que si y al final de cuentas AMD esta ahora en problemas, dudo que hasta los fans mas acerrimos de AMD se vallan a comprar las VEGA, consumen demasiado y su rendimiento no es tampoco tan impresionante.
El proceso de fabricación, no lo es todo, y AMD lo demuestra, marca más la diferencia la arquitectura que el proceso de fabricación, está claro que a menor litografía puedes conseguir meter más transistores, pero si tu arquitectura no es eficiente... pues no mejoras en ese aspecto lo q se esperaba.
Hombre, llevo varios días tanteando algunas aorus y están las 1080 a 566 y las 1080 Ti a 755, lo cual ya es una bajada considerable sin ser ofertas
en hard2mano han puesto ofertas puntuales de la gigabyte aourus 1080 por debajo de 500
Si son nuevas, por menos de 500 me parece un buen precio
hombre , yo veo que nvidia no le hace falta sacar este año la gama , principalmente porque no tiene competencia y llevan 1 año y medio con las ya lanzadas 1000, ahora estarán de relax , le darán duro en mejorar el sofware y a lo mejor pulirán mejor el hardware metiéndole cosas nuevas , porque tiempo tienen vamos , esque son tan tan poca mejora con demasiado tdp que si nvidia lanzaran la gama ahora no les rentaría
Si Nvidia se animara a sacar unas G2000 con Pascal 2.0 se comeria a AMD ya que en promedio seria un 15% mas para cada tipo de chip (asumiendo que pase de los 16nm a los 14nm), lo que dejaria a AMD peleando contra la gama media con su gama alta.
Para mi que Nvidia si sacara Pascal 2.0 ya que no tiene apuro de sacar Volta, AMD se la ha puesto muy facil, y estoy seguro de que a Nvidia le ha gustado tener todo un nicho de mercado para ellos solos, asi que una hipotetica GTX 2070 con un rendimiento como el de la GTX 1080 pero consumiendo menos, seria un disparo a la rodilla de AMD, y por mas que duela decirlo, pero a AMD solo le quedaria apurar NAVI si quieres poder pelear en algun frente.
Se ríen ya con la 1070, 1080 y la 1080ti..
Pues la serie 2000 aún no está confirmada para juegos https://hardwaresfera.com/no-habra-nvidia-volta-gaming-momento-refrito-pascal/
Pero eso hace Felices a los Fanboys verdes, de hecho les gustaria llegar a las 4 cifras.
SLI de1080 ti ultra OC Led Metropolitan Edition pasada por agua, agitada, no removida.
Ahí las 4 cifras de los proNvidialibers.
Lo del precio es por probar ya que los mineros es su principal fuiente de ingresos, si ven que la cosa no va como creen bajara de precio pero vamos, conociendo a los mineros no te estrañes que suban y que las venfan todas xD
sigues igual tío, no das ni una xd
https://i.redd.it/ij0us2rrv9fz.png
申し訳ありませんが、私は多くを与えていないとあなたとの時間を無駄にしたくありません
Amd se ha gastado todo su dinero en poner a intel en aprietos ya qie estaba dormida, puso toda la carne en el asador con ryzen, y como no podía competir ya con nvidia ha sacado una gpu para mineros, qie es un segmento que no está explotado
LOGICO MOVIMIENTO
Nadie te obliga a comprar las tarjetas gráficas infladísimas de precio de NVIDIA, así que no todo es culpa de AMD, el consumidor apoyando el "robo" de NVIDIA es partícipe también.
Un saludo.
La necesidad de comprar es "si o si" No hay alternativa... si AMD no rinde como debe y necesitas comprar GPU, no compraras AMD solo por no darle el gusto a NVIDIA...
Si compras AMD a lo que están ofreciendo dejaran de intentar apretar a NVIDIA por que tienen movimiento de caja, y si compras a NVIDIA por que AMD no rinde... pues NVIDIA se relaja... Simple, no hay opción.
Si lo gastas es porque lo tienes. Una tarjeta gráfica no es comida.
Totalmente de acuerdo pero la última palabra la tiene el usuario, hay que ser responsables y no contribuir a fomentar el monopolio como estaba pasando con Intel hasta que salió ryzen, con esto no estoy diciendo que haya que comprar GPU AMD ( si no cumple con las necesidades gaming del usuario)
Hay que comprar con responsabilidad cuando bajé las Nvidia a un precio justo o recurriendo al mercado de segunda mano, pero no pagar por una GPU un precio que esta por encima de su valor real, en resumen no alimentar la especulación y monopolio.
correcto es mas , si consume mas nos interesa poco encima nada del otro mundo
muchos se alegra que no tengamos competidor asi un grafica de 300€ la pagan a 800€ porque son mazocas
Culpas a AMD por las malas practicas de otras empresas? la wea siempre es cagar a AMD aunque ellos tengan buenas practicas y a los que hacen malas practicas no les dicen nada.
Solo de AMD, ve y dile a qualconm que tambien se una, dile a google que tambien se una, dile a facebook que tambien se una. Coño que AMD no tiene toda la culpa, que la empresa esta tratando de competir con Nvidia e intel, las cuales triplican el capital bursatil de AMD, hace poco que AMD esta saliendo de los numeros rojos, un poco de apoyo porfavor!!
No estoy culpando a AMD, pero no voy a alabar su labor, y no voy a recomendar sus productos en gráficas. Ahora mismo lo mismo da comprar AMD que nVidia. AMD siempre ha ofrecido productos de mejor rendimiento a menor precio. Ya ha dejado de hacer eso, y no es posible decidir qué producto es mejor, ya que tiene el mismo precio que la competencia dominante.
Si quieres ganar mercado, tienes que ofrecer productos a mejor precio que la competencia, no igual.
No hay que apoyar a las empresas. Ellos toman decisiones, y responsabilidades, y han de asumir el resultado. Si es un producto malo o han tenido problemas, no podemos pagar nosotros sus fallos.
Si la empresa no es capaz de generar beneficios, que cierre.
No sabes lo que estas diciendo, fliparas en colores cuando haya monopolio, madre mia que ignorancia, de todos los comentarios de hater y opiniones positivas, todas las empresas haran feedback y AMD lo hara estoy seguro
Ya hay monopolio. Tienes a una empresa AMD, incapaz de competir con nVidia.
Iba a comentar que quizas las graficas de terceros sean mejor, pero en realidad no me interesa y tampoco lo creo.
Ojala que bajen a un precio irrisorio para poder conseguir una y seguir aprovechando Freesync.
Serán una versión overclockeada, con mucha mejor refrigeración, pero con aún más consumo, más cara, así que no cuadra la ecuación, pues así se está comparando con las Founders Edition, y la GTX 1080 Founders alcanza 2.000 MHz, y dudo que en esa review se haya hecho ese OC...
Borja, donde se pueden ver las pruebas?. A mi una grafica de por si no me dice nada si no dice ni que cantidad de juegos o cuales en concreto se usaron.
https://www.youtube.com/watch?v=q71it4hQERU
Rendimiento de una 1080 de 520€ con el consumo de un sli de 1080 y el precio de una 1080 ti el triple-te lo gana AMD todo esto lanzándose un año mas tarde. Como sea este la arquitectura que usen las nuevas consolas vamos a estar lastrados otra década donde comprar un pc mejor solo servirá para mejorar resolución y FPS con gráficos que no han evolucionado gran cosa desde el primer Crysis.
Discrepo con lo que los graficos no han evolucionado, el problema es que Crytek ha estado *demasiado* adelantado a su epoca xD. Crysis 3 hoy en dia es practicamente el referente.
Te perdiste las primeras generaciones de consolas el cambio gráfico que vivimos ahora es de chiste.
Crysis 3 a estas alturas no es referente en nada.
Pues sigue chupando un huevo el Crysis 3, ponlo a 4K al tope de calidad a ver cuánto te da
No consume como un SLI de 1080 ni de lejos xD menuda burrada has soltado, el precio aún no lo sabemos y al principio estará inflado por la escasez pero comparas con el precio de nvidia bien establecida en el mercado, y lo del año tarde es la típica chorrada de fanboy porque una Fury X ya rendía como una 1070 y la 1080ti no lleva un año a la venta, que es la única que rinde más que Vega.
Tapate un poco, anda, querido fanboy.
https://uploads.disquscdn.com/images/5b236f50a052134c42ba87df7b8d86eeb40e36a5b50970aaff8f8c0ff3442561.jpg
https://uploads.disquscdn.com/images/e4d3912d880156bb5b352869b86cf1feef03c524a83829cb43b902bc239817af.jpg
https://uploads.disquscdn.com/images/7ec87ff4d410f1603446d70b90b11b343d6f47ad9b28f0c9fb88b4d9c494b101.jpg
https://uploads.disquscdn.com/images/5ee704e1609c113ce2bf6d5ca7b40019603f61e3943d69f4361521c5312bff05.jpg
https://uploads.disquscdn.com/images/0ffb31edb7f2e266d946e18960c384691c286d12ee49ea693208f5c9c2772c02.jpg
xDDDD
JAJAJAJAJA, lo mejor que he visto hoy xD
te vega mamaste jajaja
Jajajajajajaj
Entonces la vega 56 tampoco merecera la pena? si lo llego a saber me pillo un monitor g-sync...
Monitor notablemente más caro.
La verdad con las noticias que estan llegando no me hubiera importado pagar 100 euros mas
Te pillaste un 2k 144hz? porque para 1080p 144hz yo creo que Vega 56, si las rumores son ciertos, y el precio acompaña, será suficiente para ello.
2k 144hz 1ms de respuesta y como el año pasado no daba salido trinque una fury que estaban tiradas de precio para esperar a las vega, pero bueno a ver que tal son las vega 56 y si no son gran cosa esperare a que las bajen de precio si es que lo hacen
No es el fin del mundo de todos modos, siempre dependerá de a qué juegos juegues, quitando eso, siempre puedes tirar a una 1080 ti si la economía te lo permite para conseguir el mayor framerate posible aprovechar esos hz.
Si bien juegas a FPS y/o conducción como primera opción ya tienes que tantear reviews de la 56, no será tremendamente potente, para darte ultra en los últimos títulos, pero siempre es posible recortar recursos y conseguir una mejora en los fps sin que exista un gran impacto visual.
No es el fin del mundo, hay que aprovechar lo que se tiene con cabeza.
No obstante, siempre queda la opción de vender y comprar otro, cosa que tienes que valorar muy profundamente porque Gsycn+Gtx la que sea, ya es pasta.
Pero con la 1080ti no aprovecharia el framerate del monitor, pero vamos que no me tiro de los pelos la tarjeta mueve bien los juegos en 2k no aprovecha los 144hz del monitor en los juegos tochos pero no va mal, lo malo el calor que saca la condenada aunque en invierno viene bien xDDD
¿Por qué no merece la pena? Depende del precio. Si es mejor que una 1070 y está al mismo precio, no creo que 60w sean para tanto y además parece que los modelos de las ensambladoras de la 56 van a ser buenas para oc. La 64 ya sabíamos que iba a ser una broma
Es lo que puse, a ver si sale a buen precio o le meten una rebaja relativamente rapido, si no pues con la fury y a esperar
Chavales ya se que no viene mucho a cuento y tal pero haber si me podéis resolver la duda.... Estoy pensando en pillarme mas RAM para mi PC Ryzen, se que el dual channel da mucho mas rendimiento que el Single... Mi duda es que si tengo un set de 8GB (4 x 2) y añado otro set igual, el dual channel se me va a la puta? o se convierte en un doble dual channel....? O como va....?
Estoy muy confuso....
Siempre puedes vender ese kit y pillar 2x8GB a una mayor velocidad que te permita aprovechar mejor el Ryzen, para mi, sería la solución perfecta.
Jajaja... Lo que no llego a entender es porque ponen 4 slots de RAM si no puedes utilizar un Quad Channel... ?
Para meter más módulos de memoria, 4x 16GB.
Pero eso no es un Quad Channel? ?????
Que tenga 4slots no significa que funcione en quadchannel, puede funcionar en dual y en single
Na si eso ya lo sé... En plan el 1 y 3 hacen dual, al igual que el 2 y 4. Pero mi duda es que si al tener 16GB en 2x4 + 2x4 tiene el mismo rendimiento que un solo set de 8x2.
Si, tiene el mismo
Muchas gracias colega.
2x4 podrían tener mejor rendimiento ya que en módulos con menor capacidad las latencias suelen ser menores, pero igualmente es un dual channel. La mejora por tener latencias un poco menores de todas formas es irrisoria.
Aunque pongan 4 slots son dos canales.
Sí puedes poner otro pack de 2 x 4GB, si puede ser exactamente las mismas casi mejor, sino unas a la misma frecuencia. O lo que dice Borja, lo vendes y te pillas 2 x 8GB más rápidos.
Saludos.
El otro pack sería exactamente el mismo a las que tengo puestas (Hyper X 3000mhz) ... Supongo que me decantaré por ese pack extra 2x4 ya que pienso que me va a salir mas barato y tal... Ya que en el otro caso tendria que venderla barata y tal...
Ya por curiosidad tu que harías?
Sí te sale más barato otro pack de 2 x 4GB, ve a por él, con 16GB (4 x 4GB) pienso que puedes tener suficiente hasta el día que jubiles el PC, no creo que tengas necesidad de más.No obstante, si piensas aguantar mucho el PC, cuando llegue el momento vendes los packs y pillas más.
El futuro es incierto, así que lo que vale es el ahora y el corto o como mucho el medio plazo, y con 16 GB de sobra para tu uso. Si llega el momento de ponerte más porque renderizas o haces trabajos que requieren más RAM, pues ya verás lo que haces, pero lo que imprta es el ahora.
Resumiendo, yo otro pack de 2 x 4GB.
Saludos.
Seguirías con el dual channel si no me equivoco funcionaría en parejas de dos
Seguira funcionando en dual channel. Lo importante es tener los modulos de 2 en 2. Da igual que sean 2 o 4.
¿Da mucho más rendimiento el dual channel? xD ¿seguro?.
la cosa es que van en parejas de 2, si tu tienes 4 slots de memorias ram y le metes 4 memorias ram, cada dos slots de la placa base se comunican con el procesador en parejas de 2 igual de rápidas, por eso es mejor tener 4x16 de la misma marca, frecuencia y latencia, aprovechando el máximo de ram para tu placa, eso si, la placa y el procesador tienen que soportar lo que le vayas a meter xD
Vaya porqueria de tarjeta, menos mal que me pase a nvidia.
pd: Madrid > Farzalona xd
Lo que mas lastimica me da son esos que confian en amd gracias a soplagaitas... y tienen monitores freesync que ahora tendran muriendose de risa... hip.... hip... hurra Amd, te has coronado.
Ahora a esperar a Navi, no? Xddddddddddddddddd