Microsoft Azure comienza a activar sus primeras nubes con CPU AMD EPYC

AMD ha anunciado con orgullo de que la plataforma en la nube de Microsoft, conocida como Azure, ha sido la primera en dar la bienvenida a las CPUs más poderosas del mercado, hablamos de los AMD EPYC.

Estamos extremadamente entusiasmados de asociarnos con Microsoft Azure para llevar la potencia de los procesadores AMD EPYC a su centro de datos“, dijo Scott Aylor, vicepresidente corporativo y gerente general de Soluciones Empresariales.

“Existe una gran oportunidad para que los usuarios aprovechen las capacidades que podemos ofrecer a través del almacenamiento y otras cargas de trabajo con la combinación de procesadores AMD EPYC en Azure. Esperamos con interés la estrecha colaboración continua con Microsoft Azure en futuras instancias a lo largo de 2018”.

De esta forma, Microsoft es el primer proveedor ‘de la nube’ a nivel global que recurre a la plataforma EPYC de AMD para alimentar sus centros de datos. El EPYC 7551 ofrece un 33 por ciento más de conectividad respecto a cualquier otra solución de doble socket actualmente disponible en Intel, mientras que el silicio admite discos de almacenamiento premium de Azure y capacidades de red acelerada para ofrecer un mayor rendimiento que cualquier otro servicio en la nube.

Microsoft Azure ha implementado los procesadores AMD EPYC en sus centros de datos antes de la vista previa de su última serie ‘L’ de máquinas virtuales (VM) para cargas de trabajo optimizadas para almacenamiento. Las instancias de la serie ‘Lv2’ se ejecutan con procesadores AMD EPYC 7551, conformados por 32 núcleos físicos junto a 64 lógicos a una frecuencia Base/Turbo de 2.00/3.00 GHz con un TDP de 180W aportando nada menos que 128 líneas de conexiones PCIe por procesador acompañados de hasta 512 GB de memoria RAM junto una configuración de hasta 8x SSDs de 1,9 TB de capacidad.

Artículos relacionados

  • Marra Mi Au

    Se sabe a cuanto va la ram?

    • Nanduelo

      Precio?? O velocidad??

      • Marra Mi Au

        30 completo. Para ti 25.

        • Nanduelo

          Miau???

        • Marra Mi Au

          Velocidad.

        • Nanduelo

          Ok, pues ni idea.

        • Gigatrón

          Dame la dirección de esa sidosa.

        • Marra Mi Au

          c infinity fabric 69

        • Gigatrón

          Por el culo te la hinco.

        • Yester668

          Se puede pagar en especias?

        • Marra Mi Au

          Puedes pagar en juegos de ps4.

        • Javier

          y de xbox x???

        • Marra Mi Au

          tambien.

        • Mazafesio123

          Se puede pagar en pelo de gato?? tengo mucho por el suelo

    • SheKaR
      • Nanduelo

        Según la DGT no más de 120 por carretera.

    • Jose

      Interesa tambien si esta nube es mas potente que la de la Xbox

      • Marra Mi Au

        Eso es imposible.

        • Jose María García León

          Adidas cabreada en 3,2..

        • Jose María García León

          Adidas cabreada en 3,2..

  • Nanduelo

    Quiero uno para recuperar mi estatus de pcmasterrace.

    • MELERIX

      no sirven para PC.

  • Microsoft usa AMD EPYC
    Apple las AMD VEGA
    Los gamers, editores, render AMD RYZEN
    Sony y Xbox usan AMD
    Hasta intel usa el HBM de AMD.

    – PERO SIEMPRE HABRÁ INTELEROS Y NVIDIEROS DICIENDO LO CONTRARIO. ME DESCOJONO

    • Marra Mi Au

      Por preciorendimiento. Si lo que buscas simplemente es rendimiento sin importar el precio te vas a intel y nvidia.

      • Claro claro, en que quedamos inteleros? también los MAC PRO que usan FIRE PRO, tambien el iMAC PRO que usa VEGA…también es por precio y rendimiento y consumo, no?

        – HASTA QUE LIMETES HABEIS LLEGADO INTELEROS NVIDIEROS, COMO HABÉIS PERDIDO SEÑORES, no pasa nada, en esta vida hay que saber perder jajaja

        • Marra Mi Au

          Los mac ponen cosas que hacen el apaño en preciorendimiento y cobran lo que les sale de los huevos. Simple.

        • Lesahe
        • Marra Mi Au

          El gato de borja contando nuestros clicks.

        • Bestchac

          Si todos los billetes son como el primero no es para tanto

        • Jorge

          Yep, Apple obtiene baratas GPU gaming que renombra Pro y las cobra muy caro, simplemente Apple no quiere pagar por tarjetas nvidia y prefiere hacer acuerdos con AMD.

        • Pelayo (antes Anónimo)

          Las tarjetas gráficas para profesionales y las de gamers no tienen diferencia en hardware sino en software y sabiendo que Apple hace su propio software sería absurdo que pague por una quadro o una fire pro

        • MAC PRO VA CON FIRE PRO.

        • Marra Mi Au

          Todo lo que lleve pro es güeno.

        • Danniel Lecter

          Si le añades RGB ya lo peta…

        • Jorge

          Pero las termina cobrando como si fueran pro, en el Mac Pro, por miles de dólares actualizar a versiones high end y en caso de instalar Windows solo deja poner el driver para Radeon y no fire pro.

          Pero bueno Apple no tiene soporte para software de ingeniera,simulación o diseño industrial.

        • Jose Diaz

          que el software hace la diferencia que el hardware jajajaja

        • trujo

          diferencias en software y hardware también.
          Las memorias son diferentes(ecc). Los monitores son diferentes(10 bits). Los microprocesadores son diferentes(xeon, opteron y epyc) y por supuesto las graficas son diferentes para ir acorde. Otra cosa es que puedan realizar también cosas no profesionales.

        • mmmm y yo aquí con RYZEN (que soporta ECC), mi VEGA ”todas las AMD” a 10bit en mi monitor profesional LG 4k panoramico. Y en breve subo todos los vídeos de todas las delicias de juegos que he probado en este gran sistema.

        • trujo

          lo que tu digas hermoso. Cuando sepas de lo que hablas igual hasta hace gracia.
          Monitor 10 bit + Vega + Ryzen + ecc. Virgen santa, cuanta tontuna junta.

        • Torso Cage

          ecc con un ryzen de gama domestica?
          me he perdido algo?

        • trujo

          aquí el colega, que se ha comprado su padre una tele son sucedáneo de hdr, y se cree que va ha montar los efectos especiales de la serie del Señor de los Anillos.

        • Torso Cage

          yo creo que le pagan
          es como el eloy de amd xD

        • Pelayo (antes Anónimo)

          Las mac pro usan memoricas ECC. Las radeon normales soportan 10bits en tasa de profundidad de color (tengo un LG 4K 10bits y cuando tenía una RX funcionaba perfecto). Los microprocesadores no tienen nada que ver (puedes montar un xeon más una rx o un ryzen más una nvidia quadro). No defiendo la marca, pero es obvio que lo que vende la manzana no es lo mismo que las RX porque simplemente el software es diferente. NOTA: Tengo ryzen 7, rx, nvidia 1080, etc etc y nada de la manzana

        • trujo

          es cierto que hay rx que son compatibles con 10 bits(en nvidia si no es quadro no pasa), pero cuando quieres trabajar de verdad con esa tecnología es tal la cantidad de datos que todo el mundo escoge quadro, ya que son los que dan mejor soporte y drivers para los programas punteros.

          Tu lg 4k 10 bits es un monitor o una tv? Porque si es una tv estás confundiendo parámetros.

          Por otra parte lo que APPLE tiene en sus mac pro son básicamente servidores con los procesadores Intel de nucleo mas potente. Que estos son los xeon E5, equivalentes a los de la gama entusiasta de la familia 4ª, pero compatibles con ecc, y con el chipset en la placa base de servidor, unidos a memoria ec ddr3

        • Riwer

          Maxwell y Pascal soportan 10 y 12 bits. Te lo digo con una 1060 configurada en 10bits con un monitor de 10 bits.

        • trujo

          yo por lo que tengo entendido es que solo las tarjetas profesionales gama quadro dan 10 bits. Igual han cambiado después por drives, cosa que dudo. Si tienes algún enlace muéstramelo. Hace tiempo que no leo nada de este tema.

        • Riwer

          Probablemente estes hablando de este enlace que en su dia se usó mucho entre los fanboys de AMD con el mismo tema:

          https://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus

          Lo que pasa es que esa información es de 2011 y está desactualizada.

          En Maxell habilitaron 10 y 12 bits para maxwell y hacia atrás hasta la serie 600.
          Pascal en la serie 1000 evidemente no es menos.

          Puedes comprobarlo en cualqueir sitio: (primer resultado en google)
          http://www.liftgammagain.com/forum/index.php?threads/does-pascal-gpu-support-10bit-per-color-gtx.6855/

          Y ya te digo que la tengo configurada asi, en un monitor de 10 bits, en el contenido de 10 bits, en las gradaciones, se nota bastante.

        • trujo

          que en maxwell estuviera habilitado lo se.
          El tema es que esté habilitada en las graficas GTX. Creo que no.

          Lo que si hay son graficas radeon compatibles, que es una característica que habilitan para poder luchar contra nvidia. Pero ese es otro tema.

        • Riwer

          Hombre, mi grafica es GTX (1060) y 10bits puedo seleccionar. Mas de ahi ya no te puedo decir.

        • R9 Fury

          https://uploads.disquscdn.com/images/0f350db134bf967406bf307570501c573104d82dc18e67ea1e3a101719015f4e.png

          Esto que dice el trol de aleacom es falso,ahi una captura de mi pc con una 980ti

        • trujo

          eso es otro tema. No compararía esa profundidad de 32 bits con una paleta de colores de 10 bits que es de lo que hablamos.
          10 bits son 1000 millones de colores. No le deis vueltas, y eso solo lo consigue un monitor profesional. Y las imágenes las mueven y las retocan las graficas profesionales, quadro y fire pro.

        • Pelayo (antes Anónimo)

          Tengo monitor 10bits, no tv. Las TV’s tienen buena calidad (algunas) pero tiempos de respuesta de vergüenza, por eso no montaría una TV en la PC

        • trujo

          Apple lo que hace es coger hardware de 2-3 generaciones pasadas y te las vende junto con su sistema operativo. Eso si el sistema operativo vale 2000-3000 euros.
          Es buen sistema, pero no para tanto.

        • Claro claro, si es que editar vídeo a 8k no se necesita a nadie, claro claro, la GPU es de Apple y la han llamado VEGA JAJAJAJAJAAJA

        • R9 Fury

          Que penita das dandote votos positivos a ti mismo lol

        • Marra Mi Au

          es la red neuronal.

        • R9 Fury

          Es muy patetico darse likes uno mismo

          Pd: me pillao un 24″ 4k para la ps4 pro xDD

        • Marra Mi Au

          24″ 4k? eso existe?

        • R9 Fury
        • Marra Mi Au

          Un poco pequeño para mi, estoy acostumbrado a jugar en 39″. ¿Se nota mucho el cuatro qua?

        • R9 Fury

          yo tengo un 28 4k para el pc,pero es algo viejo samsung U28D590 del 2104 de los primeros que salieron tn 1 ms panel de 10 bits en aquella epoca era un monitor puntero,el problema es que no tiene hdmi 2.0,por eso he comprado este,notarse claro que se nota y por 180 euros no me lo he pensado mucho y es ips y con 2 hdmi 2.0 que es lo que me interesaba,tambien tiene display port.

        • Marra Mi Au

          Yo tengo una sharp full hd , con 100hz reales, 3d activo y 350nits que esta muuuuuyyyyy bien para tener 4 años. Hasta que no vea algo decente en 4k – 40″ no cambio.

        • R9 Fury

          Yo es que tele 4k,no me la puedo meter en el zulo que tengo destinado al ocio,de ahi que he comprado el monitor y lo que te digo,cuando vi 180 euros no me lo pense mucho,en el comedor del piso tengo un lg 47 pulgadas 1080p del 2012 y de momento no pienso cambiarlo,esta claro que lo suyo es un 40 para arriba,pero queria cacharrear con el 4k de la ps4 pro y por 180 euros me quito el gusanillo xDD

        • trujo
        • Marra Mi Au

          Eso no tiene HDR , solo hay que ver el brillo. Meh.

        • trujo

          cierto, no es 10 bits.
          a cualquier monja se le escapa un pedete. JEJE

        • Marra Mi Au
        • trujo

          ninguna tv lleva autentico hdr.
          Lo que llevan son aproximaciones para poder leerlo, pero no el autentico que llevan los monitores de 10 bits.
          Hay mucha propaganda engañosa.

        • Marra Mi Au

          Si que las hay pero tienes que irte a partir de las 50″ . Ya van por los 1500nits y paneles de 10bit reales hay muchos.

        • trujo

          tampoco son. Ponme una y te demuestro que llevan una tecnología que se acerca a los 10 bits de los monitores, pero es inferior.

        • Marra Mi Au

          Que si hay hombre XD , no voy a rebuscar ahora.

        • trujo

          escribe 10 bits en google y te saldrán 1000 millones de colores.
          Después busca un monitor que los de. Empieza por el mas caro

        • R9 Fury

          Podrias pasar algun enlace de algun monitor con hdr 4k?

        • trujo

          https://mejorantivirus.net/mejor-monitor-para-edicion-de-fotografia-o-video-profesional-y-barato/

          Hay muy buenos de 8 bits, también de 8+. Pero los mejores son los de 10 bits como minimo

        • R9 Fury

          De ese enlace que has pasado hay monitores de mas de 3000 euros y sin hdr con hdr solo hay uno en todo ese listado a 4k y vale una buena pasta casi 1600 euros,una autentica locura de precio

          https://www.amazon.es/gp/product/B01MSJ7KYG/ref=as_li_tl?ie=UTF8&camp=3638&creative=24630&creativeASIN=B01MSJ7KYG&linkCode=as2&tag=mejorpc-21

        • trujo

          olvídate del hdr. Eso es son unas letras que ha aprovechado la publicidad de las televisiones. Lo que cuenta en el mundo profesional son lo bits.
          10 bits dan HDR verdadero de 1000 millones de colores. Lo demás es publicidad engañosa, que intenta lo mejor que puede reproducir las imágenes fabricadas en procesos de 10 bits.
          HDR, HDR10, HDR1000, Dolby Vision……….
          Unas son mejores que otras acercándose a los monitores 10 bits

        • R9 Fury

          osea que el monitor que tengo por aqui del 2014 con panel de 10 bits tiene hdr?es este
          del 2014 que lo tengo

          https://www.amazon.es/Samsung-U28D590D-Monitor-tecnolog%C3%ADa-puertos/dp/B00IJS6PCC/ref=sr_1_2?ie=UTF8&qid=1512512341&sr=8-2&keywords=samsung+u28d590d

        • trujo

          yo diría que no. No encuentro nada de 10 bit.

          Haber, aquí hay un error que se arrastra desde hace años en los foros. Porque diga que tiene un millón de colores no es que sea del todo cierto.

          Un monitor de 10 bit te puede dar en cada pixel el autentico color que se ha capturado, dentro de los 10 bits

          Hay otro tipo de monitores, por ejemplo 8+fgr, que lo que hace es en el mismo pixel encender simultáneamente dos colores para imitar el que no puede. Esto es a groso modo. Y han sacado tecnologías que van mejorando y se acercan a estos 10 bits, pero no son realmente los verdaderos.

          Esto no quiere decir que sea mal monitor, simplemente que es uno de los mejores monitores de 8 bits.

        • R9 Fury

          https://uploads.disquscdn.com/images/7c02fb674305f8aefeca58131bda5b3b88cfa2c54f9852199921305535f44450.png

          Creo que pone bien claro que el panel es de 10 bits,si me equivoco dimelo,como digo es muy muy viejo

        • trujo

          ok, no lo encontraba. Entonces si.
          Es que no es lo mismo 10 bits que 8bits+frc, que 8bits.

          Lo mismo paso con los monitores de 6 bits. Que salieron con frc para intentar simular los 8 bits, pero no son los autenticos.

          El tema es que el paso a 10 bits requiere tal cantidad de información que estamos hablando de palabras mayores donde yo me pierdo.

          Incluso dudo de que haya forma física de grabar 4k a 10 bits y 60 fps.

        • Danniel Lecter

          Se van a lo barato… por eso usan AMD…Amd deja tirado de precio sus productos a otras marcas, y por eso tienen tanto mercado.. Por lo demas AMD esta por muy por detras de Nvidia. De Intel no se aleja tanto con Ryzen… Pero defender Vega no tiene ni pies ni cabeza

        • Jose María García León

          relaja la raja maja, vamos que sobran las mayus, puedes expresarte del mismo modo que te vamos a entender, no porque lo digas con mayus (algunos lo entienden como gritar) vas a tener mas o menos razón, un saludo macho.

          A veces creo que os pagan un dineral por sacar la capa la espada y si hace falta la po**a con tal de defender una marca.

      • Bestchac

        Nvidia siguen en cabeza pero son muy caras (pagar mas de 600 por una gráfica es inaudito)
        Los Ryzen son mucho mejores que los i5 e i7 en calidad-precio

        • Hugo Scali

          Bueno con AMD pagas más 600 por un rx Vega así que estamos en la misma una GTX 1080 está igual o más barata que las rx Vega 64 en precio rendimiento las Radeon no ofrecen nada.

    • Torso Cage

      SIempre habrá un alecaom diciendo que su vega/fury con un phenom/ryzen va a 60FPS 2k ultra en todos los juegos demostrandolo con videos de 30 segundos con rascadas

      • gasparspeed

        2K 60FPS? Vaya mierda, por lo menos 240FPS 16K que es AMD hombre!

      • ikergarcia1996

        Los 2K 60fps eran con la R9 280, con la Fury serán 3 pantallas 4K mínimo, que lleva HBM xD

        • trujo

          en el video de tu review dices que si no es por Ryzen no habrían los i9 por encima de 10 núcleos. Cuando ya con Nehalem del año de la Polka llevaban 8.
          Por lo demás buen video.

        • No es para tanto,
          – iMac lleva 5K ¿y que lo mueve? AMD
          – MaC Pro permite 4 pantallas 4K, editar render 8K etc… que lo mueve, AMD.
          – Yo juego 4k ultra 60fps, render, grabo a la vez, y qué lo mueve RYZEN+VEGA+HBM2

          La vida te da sorpresas, sorpresas te la da vida.

        • Marra Mi Au

          El ryzen vale, pero pillarte una vega para jugar es de ser un hater de nvidia de cojones. Vamos una sin razon total.

        • Danniel Lecter

          Como digo mas arriba, no tiene ni pies ni cabeza

        • ikergarcia1996

          Yo tengo una tablet con una pantalla casi 4K y lleva un atom con una integrada que da pena ¿Convierte eso a la iGPU de mi tablet en una bestia? ¿Que gráfica no permite 4 pantallas 4K hoy en día? Ni que fuese algo algo raro…
          Además, que los productos de apple no son una referencia para nada, ya que nunca se han caracterizado por ser precisamente equipos potentes…

        • Marra Mi Au
        • R9 Fury

          Esperando esos videos a 4k ultra jugando,pero pls que no sean de 30 segundos para variar xDD.

        • Danniel Lecter

          Y que no mire ni al suelo ni al cielo que tampoco cuela

        • KLS

          ¿Y porque el Imac y el MacPro usan procesadores Intel?

          Me parece muy bien que te toques pensando en tu Ryzen, pero menuda mierda de ejemplo has escogido.

        • Marra Mi Au

          No hay que tomar enserio lo que dice.

        • KLS

          Y no me lo tomo, pero me gusta hacerle escribir.

          El se entretiene escribiendo, y yo leyendo sus gilipolleces. Ambos ganamos.

        • Como veo que no sabes nada de tecnología, no te preocupes que estoy para ayudarte.
          AMD en CPUs con Apple lo único que tenía eran los FX para la gama domestica (ellos iban con los OPTERON es servidores que le daban y siguen dando una brutal paliza a los Intel) no hacían mucho ruido.
          – Ahora con RYZEN se han comido a todo Intel, y con EPYC ya lo han bordado. Sin contar los treadripper que han partido por la mitad a Intel.
          – No es que AMD no pudiera, es simplemente que no le ha interesado ese mercado y creo que no le va interesar sabiendo que manejan las GPUS de Apple, sin contar que ya Asus ha metido el portatil más potente del mercado gracias al RYZEN 1700 de 16 hilos, algo que Intel no tiene a 65w señores, NO PUEDEN CON AMD. Tragaros las palabras aquellos que digan algo de Intel, ahora mismo el Asus con RYZEN es el portatil mas potente del mundo a 1.600euros señores. Esto IKER fue sumiso y aceptó bien la derrota, aprender por IKER.

        • Marra Mi Au

          jajajaja los opteron dando una paliza a los intel jajajjajajaja y el resto desorinandome.

        • KLS

          No, soy un lerdo en ese aspecto; casi estoy a tu nivel.

          La diferencia es que yo no ando respondiendo parrafadas de ciencia ficcion que no tienen nada que ver para eludir una pregunta.

          Pero bueno, corre a tocarte y a la cama, que ya han salido los lunis.

        • Sergior25

          JAJAJAJAJA eres genial, con la primera frase ya me has hecho descojonarme, eso si, ya no he leído mas porque te repites mas que ajo amijo.

        • trujo

          Apple puede llevar 4k y todo lo que tu quieras. Pero cuando hablamos de meterla hasta el fondo hay que hablar de 10 bits para arriba. Y en eso, nvidia es el numero 1. Apple lleva radeon, por supuesto, pero también nvidia.
          Que es muy diferente ver contenido compatible con HDR, que ver y desarrollar contenido en HDR(pero el verdadero, de toda la vida de Dios)

        • mmm mi VEGA de AMD a 10bit en mi monitor profesional LG te saluda (una pena que las Nvidia no puedan con 10bit).
          – En AMD todas las gamas se pueden.
          No se que chorrada te metes con el HDR jajaja, cuando el rango dinámico lo dan las cámaras y no los monitores (es una paleta absurda de venta).

          No pasa nada, no lloreis inteleros y nvidieros de verdad, en esta vida se gana a veces y se pierde también.

        • trujo

          anda y no digas tonterías. Que haqui habéis muchos cineastas y fotógrafos de pasarela Cibeles, no vaya a ser que te crean de verdad

        • Riwer

          Es que no se que es peor, si que se dedique a fotografia y suelte esa burrada sobre el HDR, o que inunde la web mintiendo tanto.

          Yo definitivamente, ya estoy seguro de que es un multicuentas troll de alguien de por aqui xD
          O bueno, siendo mas realista alguien trabajando cobrando 4 duros de AMD España xD

        • R9 Fury

          Es retarded sin duda,lo mas gracioso es verle darse positivos a si mismo de las paridas que escribe lool

        • Riwer

          Que las nvidia no pueden con 10bits?

          Foto mia con mi monitor profesional y una GTX1060 xD

          https://i.imgur.com/WbTa7wH.png
          Ains Alecaom, que aqui ya te hemos pilaldo muchas veces.
          Esas mentirijillas constantes te delatan mucho xD

        • Hugo Scali

          La Vega no es mala tengo una rx Vega 64 con un i7 8700k pero ni por alado está cerca de mi 1080ti con mi threadripper 1950x en edición de vídeo. No sé de dónde sacaste que los gamers/streaming/editores usan ryzen con Vega la mejor combinación es AMD+nvidia actualmente.

    • R9 Fury

      Venga va,marcate otro chistaco de esos buenos

    • Mathordas

      lo que define que el mercado lo dominan intel y nvidia son el numero de ventas.
      de todas las graficas del mundo el 80% son nvidia, y de todos los procesadores intel tiene el 90% en los x86 + x64
      por eso se dice que dominan el mercado, no por que sean mejores ni nada

  • La otra cosa que AMD deberia “Anunciar con orgullo” son las nuevas especificaciones de la 560.

    • FancoFC

      Men esa 560 con 896sp es una 560D es otro cosa respecto a la 560

      • Pues ya no, revisa la página oficial de AMD, ahora la 560 puede salirte con 16 o 14CUs

  • Lesahe
  • Jorge

    Microsoft se autobuguea

  • Marra Mi Au

    Si tienes psn plus han enchufado laFuria Wardog, la segunda campaña de Raiders of the Broken Planet gratis.

    https://www.raidersofthebrokenplanet.com/statics/multimedia/images/2017/05/16/season2_big_1.jpg

  • KLS

    Ah, que es solo un publireportage…

  • trujo

    Competencia pura y dura. Si los epyc son competitivos habrá que contar con ellos, aun siendo menos potentes, con los precios que tienen, son rentables.

  • Jose

    Muchos numeros para mi athlon 1800+ xD

  • Anony Anonymous

    Amd vendiendo a todo el mundo pero siempre con la soga al cuello.

  • fuerzachile21

    Como arden por aca algunos xd.

    • Marra Mi Au

      Es la vega de aleacom.

      • Torso Cage

        una vega de turbina en manos de una persona que no sabe hacer undervolt
        ni poner la ram de su ryzen a mas de 2133
        miedo me da

  • afganitia

    CPU mas poderosa del mercado. Ya. Ni aunque hubiera salido 3 años antes lo sería.

    • Jose Diaz

      esa edad sería legacy

    • Hugo Scali

      No sé de dónde te imaginas que no hace 3 años lo sería cuando actualmente se viola a todo los Xeon modernos.

      • afganitia

        Noticia: aparte de Intel y AMD otras compañías existen. Cómo IBM, que copa el mercado de servers de alto rendimiento.

  • Hasta pegando cosas amd es mejor que Intel

  • NiUnaMas

    A ver si es verdad y mete la cabeza de lleno donde esta la pasta. Como los EPYC estos salgan buenos le pueden hacer pupita a INTEL.

    Propicios dias.