Jensen Huang (CEO Nvidia): “La marcha de Raja Koduri es una gran pérdida para AMD y un reconocimiento de Intel”

Jensen Huang, CEO de Nvidia, se pronunció oficialmente ante la que debe ser la noticia del año, la marcha de Raja Koduri de AMD al eterno rival, Intel, un movimiento que podría costar bastante caro al grupo Radeon Technologies Group, pues pierden al ingeniero jefe de la arquitectura Polaris y Vega, pero este problema empequeñece cuando sabemos que llevará a Intel a lanzar en el futuro sus primeras gráficas dedicadas, y a eso nos referimos a tarjetas gráficas como dios manda, y no unos gráficos integrados junto al procesador.

En una entrevista para Tom’s Hardware, Jensen Huang respondió de forma clara qué opinaba de este movimiento, revelando que “la marcha de Raja Koduri de AMD es una gran pérdida para AMD, y es un reconocimiento de Intel por que probablemente el desarrollo de una GPU ahora es increíblemente importante“.

El CEO de Nvidia continuó indicando que una GPU moderna no es un acelerador de gráficos. “Acabamos de dejar la letra ‘G’ allí, pero estos procesadores son aceleradores paralelos específicos, y son enormemente complejos, son los procesadores más complejos construidos por cualquiera en el planeta“.

No es de extrañar que el CEO de Nvidia quiera pintar la partida de Koduri como algo malo para AMD, siendo algo realmente malo para la división gráfica de AMD que ahora se encuentra buscando un nuevo líder. Jensen Huang comenta que el comunicado de prensa de Intel, que da la bienvenida a Koduri al lado azul, da a entender que Intel buscará tener un papel protagonista en el segmento de la Inteligencia Artificial y el Aprendizaje Profundo donde el procesador gráfico es esencial, por lo que Intel no está pensando en el segmento gaming, que son minucias al lado del pastel que quiere cortar.

Cuando se le preguntó sobre la unión de Intel y AMD para desbancarle en el segmento portátil, ya ahí entró más a la defensiva indicando el bajo consumo y la gran potencia que implica la llegada de las nuevas gráficas GeForce GTX 1080 Max-Q y GeForce GTX 1070 Max-Q, que son en esencia unas variantes idénticas en características a sus modelos homónimos pero con una menor frecuencia para reducir tanto el consumo energético como la temperatura:

“La combinación de Pascal y Max-Q realmente ha elevado el listón, y esa es realmente la esencia”.

“La eficiencia energética de la arquitectura GeForce Pascal, la tecnología de diseño Max-Q y todo el software que hemos creado realmente ha establecido un nuevo punto de diseño para la industria, ahora es posible construir un portátil gaming de última generación con las gráficas GeForce más potentes, y queremos ofrecer experiencias de juego muchas veces mejor que la experiencia 4K de una consola y tenerlas en un ordenador portátil de 18 mm de grosor”.

Artículos relacionados

  • RuNBlindx

    Pues vaya perdida para amd, de reconocido ingeniero que simplemente no pudo estar al nivel de la competencia, puede ser todo lo bueno que quieras, pero si no puede no puede. Me espero cosas muy buenas con lisa su al mando.

    • Hombre, para los recursos de AMD, muy bien se hizo, ahora que se pasaran con el humo, y de pintar todo de color de rosa, a ser completamente marrón con mosca, es otra cosa, se generó tanto hype que terminó siendo una decepción.

      Si la Vega 56 hubiera salido de forma directa con diseño custom, la cosa hubiera cambiado bastante, hubiera mellado las ventas de la GeForce GTX 1070. Han pasado 3 meses, y aún no se sabe nada…

      Pero siempre la historia se repite, pasó lo mismo con la RX 480, de ser muy buena gráfica a tardar meses en salir el modelo custom y, antes de hacerlo, llegaron 40x GeForce GTX 1060 custom que pese a ser ligeramente inferior, la liquidó, pues quieras o no, es Nvidia, y solo por ser Nvidia ya se venderá más que ser AMD.

      • phenom

        Emm vega es un mojón lo mires por donde lo mires y si ese esfuerzo el director… Es un inútil las cosas x su nombre, xk si un proyecto no está bien hecho mejor no lanzarlo Borja esto es así aquí y en China

        • Choosen

          Creo en amd te quieren dar el cargo a ti para crear las nuevas Radeon. Pareces ser un erudo-Ingeniero de alto nivel

        • phenom

          Que una gráfica custom consuma lo mismo que un sli de la competencia lo mires por donde lo mires es de vergüenza y no superando a tu competidor

        • Choosen

          Has sido contratado por Radeon Group Felicitaciones

        • Javier Saove

          Te pasas de erudo jajaja…..

        • Javier Saove

          Nop. Hay muchos engines donde Vega anda muy bien….el tema es que Nvidia anda mejor en engines que paralelizan poco y aprovechan shaders muy rapidos…los mas viejos digamos.

        • phenom

          Ni se separa ni 3fps de más en ninguna prueba y llegando a consumir 380w ostias esque es de vergüenza y compitiendo con la gama media de nvidia yo llevo años comprando amd pero vega es una vergüenza en cuanto arquitectura

        • Johnny Rotten

          380? la gpu sola? ¿tu sabes la burrada que estas diciendo?

        • phenom

          Coño vete a reviews y mira consumos a full hasta pivis de 380 el doble que una 1080

        • Johnny Rotten

          *en el 90% de las reviews que ves hablan del equipo entero

        • phenom

          La vega 64 en modo turbo consume 300w ya de por sí eso te vas si quieres a la página oficial o donde quieras que eso es así

        • Johnny Rotten

          El moderador esta hablando de la vega 56 y tu estas contestando a un comentario que se centra en la VEGA 56

          me matais los fanboys…¿lo haceis gratis?

          Pd:Acabo de repasar a la cuestion que proponia el moderador,y si, ni un solo 64

        • phenom

          La 56 lo que dice Borja que ni a día de hoy los ensambladores sacaron custom jajjajajajajjjaajaj y yo te digo que la 64 es un fracaso… Dices fanboys sin saber siquiera donde tienes la nariz mi equipo entero es amd pero de ahí a decir que vega es buena es autoengañarse

        • nouVeau_AyMD

          Undervolt a saco, y Vega 64 pasa a ser algo decentillo… por lo menos en consumo, solo le falta customs y bajar el precio juntándose estos factores.

        • phenom

          Si es que sacar modelos custom para caparlas y enfriarlas con 3 conectores de 8 pines para mi fracaso

        • nouVeau_AyMD

          A stock las bajas mucho el voltaje, vienen con un overvolt bastante serio… incluso puedes subirlas un cacho curioso con voltaje de stock.

          No son lo mejorcito, lo mejor ya se sabe donde está, por lo menos para juegos… pero con el factor precio y ser un poco mañoso, más adelante puedes sacarte un buen cacharro.

        • phenom

          Si es que el problema que hay 1080 por 520 pavos custom y vega 64 no le gana en nada

        • nouVeau_AyMD

          Tu mismo lo has dicho, ese es el problema… que las 1080 están muy baratas, las Vega muy caras y les falta mano para mejorar, que ya han mejorado un cachito desde que salieron… pero bueno, dandose los factores en que en algún momento bajen, y los drivers la mejoren algo más, puede ser una opción, aunque supongo que noVideo sacará algo para combatirlo si se diese el caso.

        • phenom

          Darte cuenta que con la 1070ti la 56 adiós y nvidia teniendo la 1080ti… La 1080 quedándose a ese precio… Xk por 20euros no te la juegas y menos si una custom te pide 3 conectores de 8 pines y una 1080ti te pasa en 40fps…

        • phenom

          Yo tenía pensado pillarme la 64 porque consumo para mi me da lo mismo pero si esk no la supera en nada a la 1080 en nada y encima tirando de fuente bien…

        • Johnny Rotten

          Por segunda vez…que no estamos hablando de la 64,es de la 56 y esa no consume lo que tu dices,es mas si “leyeras” verias que todas la vega van hasta el culo de voltaje y que con un simple “undervolt bajas bastante el consumo pero esto supongo que lo sabe la gente curiosa y que no defiende a una marca con toda su fuerza

          Ale fanatico,cuidado con el pene del chino que lo mismo te atragantas

        • phenom

          Eres un triste fanboy de una marca, no querer ver que nvidia hace ya bastante no tiene rival en alta gama… Amd solo puede intentar hacer algo en baja_media gama y consumiendo mucho más… Se honesto yo tengo un 1800x y una r9 290 pero no por eso pagaré algo que no merece la pena

        • Johnny Rotten

          por eso tengo un 5820k y una 980ti

          me gusta leer,a ti ladrar

        • phenom

          Pues para que veas que defiendes un chasco, yo leo y me informo te recomiendo el foro quizás te ayude a madurar y a pensar y opinar porque veo con tu vocabulario que no llegas ni a ser mayor de edad

          P. D: vega 56/64 fracaso si ves lo contrario tienes un problema

        • Johnny Rotten

          He dicho lo contrario? solo te digo que la afirmacion de que la VEGA 56,repito LA VEGA 56,vuelvo a repetir por si tienes dudas, LA VEGA 56 no consume ella solita 380,lo consumiria hasta el culo de oc,con su cpu oc….8 fans y algunas tonterias mas

          Leer es bueno y personalmente despues de tu tres mensajitos pobre el que se guie por tu sabiduria

        • Johnny Rotten

          https://www.muycomputer.com/wp-content/uploads/2017/08/radeon-1.png

          Y esto es para que veas que acabas de meter la pata hasta el fondo

        • Burn Thegames

          Pero el rendimiento lo mantienen?

        • Johnny Rotten

          Del rendimiento no hablo,hablo del consumo ¿380 una 56?

          Pues eso,un fanboy de manual

        • jesusmo

          Yo me pregunto, porque si todas traen sobre voltaje y están alimentadas de más, porque no sacan bios nuevas y bajan el consumo…

        • K0uk

          Parece bastante obvio que no sabe lo que está diciendo no

        • Javier Saove

          Mira, en new colossus por ejemplo rinde parecido y los tres conectores son pora situaciones atipicas, furmark o mining. En juegos tipicamente gasta poco mas que la 1080ti…
          Yo prefiero la 1080ti, pero creo que Vega sea una mierda. Lo mismo decian de Fiji y mi Nano era una bomba.

    • Alejandro Cañavate Acosta

      no esperes gran cosa , el ingeniero jefe es Raja , yo tiro mas por culpa de la empresa , que no tiene los medios ni el dinero como intel y nvidia para sacar material de calidad , ahora si te pones a pensar , con ingeniero jefe como Raja y la empresa y el dinero que tiene intel en desarrollo I+D van a sacar unas gráficas que seguro que AMD se las va a ver muy chungo , si lo pasa mal contra nvidia ni me imagino contra 2 Nvidia e Intel veo a AMD vendiendo su empresa

    • Yester668

      Pues yo lo veo perfecto… es mas por soñar me gustaría ver tarjetas gráficas Intel buenas. AMD ya musculo no tiene solo puede hacer “magia” como con los micros (pero mientras las memorias HBM2 no bajen no se sacara partido a la nueva plataforma) y NVIDIA si pasara eso de que AMD le come mercado tiene margen de respuesta (bajar precios)… esta negro el futuro gráfico

      Para los viejunos 😛

      http://www.ixbt.com/video2/images/r9600-2/sapphire-9600-256-front.jpg

    • alxSoft

      Lo único que puedo decir a favor de Raja… es que el diseño original de VEGA no fue suyo, estuvo terminando lo que alguien más dejó inconcluso y ahora el haciendo lo mismo, abandono a su hija no nata NAVI, para que alguien más termine el trabajo, como sea… lo que haga en intel sería algo así como la hermanastra de NAVI

  • Juan Aponte

    Pues si la ida de Raja sirve para que Intel se convierta en el tercer fabricante de graficas dedicadas seria el evento mas importante en el mundo del hardware en las ultimas decadas, y hasta asi yo adoraria a Raja por librarnos del monopolio de Nvidia, y si monopolio porque AMD no es competencia para Nvidia.

    • nouVeau_AyMD

      No serán para tí, si no para la IA y el aprendizaje profundo… Intel no tiene licencias propias, AMD y NVIDIA podrán cerrarle el grifo cuando quieran si es el segmento gráfico donde quieren entrar… a la vista está que ahora ha sido AMD quien le ha cedido patentes para fabricar, por que NVIDIA dejo de hacerlo 🙂

    • Choosen

      Si que amd es competencia para nvidia! En mi pc tengo una radeon y contento! Podria tener una nvidia pero no. Ahí tenés la competencia

      • Juan Aponte

        que se vendan graficas AMD no significa que sean competencia para Nvidia, la cifra es minima y se puede ver claramente en las estadisticas de Steam donde las radeon practicamente no aparecen, por algo Nvidia aplazo o cancelo Volta para el mercado domestico, porque no tiene competencia y puede hacer lo que se le venga en gana.

        • Choosen

          que los gamers sean unos cerdos burgueses pro nvidia, no significa que amd no sea competencia. En las últimas tiradas de gráficas amd no ha dado la talla para competir en la gama mas alta y ha terminado vendiendo un poco de humo. Pero en realidad cualquiera de sus graficas compite en casi todas las gamas de pe a pa y son excelentes placas.

        • Juan Aponte

          yo no soy gamer y uso Nvidia, a muy pocos les gusta tirar el dinero como lo hacen los apple fans, en este momento (y practicamente siempre) Nvidia tiene mejores productos al mismo o menor precio y con menor consumo.

        • Choosen

          Eso que dices es verdad. Nvidia ha puesto a tiro sus precios

  • Joe Musashi
    • Choosen

      No da gracia

      • nouVeau_AyMD

        Llevas Intel?, si no lo llevas la tiene de verdad, o si llevas uno soldado… xDD

        • Choosen

          Tengo un intel con pasta que levanta mas frecuencias que toda la gama ryzen junta, tengo un amd soldado y un intel extreme soldado. Sigue sin dar gracia tu imagen. Aun con pasta de dientes intel se almuerza a amd todo el tiempo

        • nouVeau_AyMD

          Seguro que si… se almuerza a todos, en monohilo.. en multihilo se han cagado las bragas hasta en una muestra de ingeniería de AMD, y te lo dice uno con un 5820K, un Xeon E5-1650 y un Devil Canyon a 4.8GHz delideado, que me tocó delidear por que freia neuronas como las tuyas a kilómetros.

          Lo único que está de tu a tu en multihilo son esos i7 Coffe que frien huevos llegando a 100º sin delid y con un poco de OC, a sí que las tonterias que me cuentes no me valen habiendo probado de todo 😛

        • Choosen

          que churro te fumaste?

        • nouVeau_AyMD

          El de troll de los Lunes, hay que seguir un poco el rollo del site, si no se hace aburrido.

        • Choosen

          No aportas

        • nouVeau_AyMD

          Eso díselo a tu primer comentario con el meme del compañero :).

        • Choosen

          Convidame LPQTP

        • nouVeau_AyMD

          No me hace falta abreviaturas para decirte que me comes los huevos xD

        • Choosen

          y vos me comes la chala

        • nouVeau_AyMD

          Okei chamaquito wey taringo.

        • Choosen

          Lince de las cavernas?

        • nouVeau_AyMD

          No, zulú del monte, cerca de tu pueblo.

        • Choosen

          Clave erronea. Siga su dia señor

        • nouVeau_AyMD

          Tu eres erroneo xD

        • Choosen

          Tu eres un gaita llenador

        • nouVeau_AyMD

          Me aburres, hazme pasar un rato divertido pero en un idioma que te se entienda… “gaita” dice… que es eso, idioma zulumero?

        • Choosen

          gaita es gaita acá y en donde vos quieras apreciado gaita

        • nouVeau_AyMD

          Supongo que gaita será lo que me felas cada noche imagino.

        • Choosen

          Homosexualidades aparte, no es eso no

        • nouVeau_AyMD

          Te doy lo que buscas, no lo que necesito… si no, haz que se note menos 🙁

        • Choosen

          puaj

        • nouVeau_AyMD

          No aportas 🙁

        • Choosen

          desagradable ese gaita como pocos!!

        • nouVeau_AyMD

          Por que no la has visto, si no te gustaría tontorrón. Seguro que te gusta, a la gente con esos gustos se os nota rápido.

        • Choosen

          ….

        • trujo

          ya, pero resulta que el 7800x que poco ruido ha hecho, en multinucleo está enseñando los dientes. Cuando diga de morder se verá donde está de verdad Intel.
          Por cierto, que este diseño de micro, mejora con mas núcleos.

          https://www.pugetsystems.com/labs/hpc/Skylake-X-7800X-vs-Coffee-Lake-8700K-for-compute-AVX512-vs-AVX2-Linpack-benchmark-1068/

        • Joe Musashi

          La verdad es que la compra buena en Intel es el 7820x, ese 7800x es incluso peor que el mio en juegos y en lo demás no hay tanta diferencia como para cambiar de plataforma.

        • trujo

          para juegos solo puede quedarse corto en monitores con muchos fps. Que debe de andar a la par de los ryzen.
          Tu has visto esas graficas con avx.512?
          Casi duplican al 8700k

        • Joe Musashi

          En otro foro, hay un tío que tiene uno como el mío también a 4.8ghz y lo cambió por el 7800x y después de pasar benchs se demostró que el rendimiento era peor.

          Al final se pilló el 7820x porque tiene más caché l3 que el 7800x y parece que es ahí de donde cojea.

        • trujo

          Hombre, estos micros poco a poco empezarán ha ser rentables en aplicaciones donde salgan nuevas versiones.
          Pasa lo mismo con tu 5820k y un 3960x. Prácticamente son lo mismo, pero cuando los pones en aplicaciones que han salido después el tuyo le pega una paliza.
          Cuando hablamos de aplicaciones que no utilizan nuevas instrucciones van a la par.

        • Joe Musashi

          A mi de Intel siempre me tirado más la plataforma entusiasta, si ahora mismo tuviera mucho presupuesto y me quisiera montar un equipo para los próximos 5 años con micro Intel el elegido sería el 7820x sin lugar a dudas.

          Hablo de un caso hipotético claro xD hablamos de 575€ de micro más la placa base.

        • trujo

          tocate los tocatorios. Y yo también me pillaba el 7820x

          De todas formas eso de que el 7800x sea peor que el 5820k habría verlo.
          No me lo creo. O por lo menos no en los escenarios con programas profesionales.
          Si comparas un 7820x contra un 5960x en las review verás que hay una diferencia muy grande, como para decir que el 5820k es mejor.

        • Joe Musashi

          Hablo de juegos, eh!en lo demás a las mismas frecuencias si que es mejor el 7800x, solo faltaría que un micro más nuevo no sea mejor que uno más viejo aunque la diferencia no sea tanta.

          Yo lo próximo que haré más adelante será montar una líquida custom para poder poner el micro a 4.8ghz con temperaturas mejores que las de ahora.

          Buenas noches!

        • trujo

          Tu tienes micro para rato. Cuídalo como mejor puedas y si te gusta el cacharreo pues adelante con la custom.

        • nouVeau_AyMD

          Ui si, instrucciones AVX 512, tantos programas las usan Mr.Xeons…. pero tantísimos…… xD. ¿Todo bien con ese X5670?, ese que recomiendas a todo dios? 🙂

        • trujo

          lo mismo pasaba con CUDA hace poquitos años, y ahora casi triplica a un núcleo radeon, siendo el radeon mas potente.
          Tu sabes que hablas de Intel?

        • nouVeau_AyMD

          CUDA… gran desarrollo el de GPGPU, algo realmente necesario… igual que OpenCL, en el cual AMD también se saca los huevos en potencia en bruto, a diferencia de juegos…

          AVX512?, fuera de entornos profesionales se comen los mocos, y sucederá durante muchos muchos años, lo peor de esto es que lo sabes y me tratarás como un cuñado… pero si te aferras en esto fuera de un entorno profesional, te estás equivocando, igual que en uno actual o a corto-medio plazo 🙂

        • Chapacosoy

          La gama profesional de Amd esta casi desahuciada

        • trujo

          por supuesto que lo se, porque las compañías lo primero que miran es el entorno profesional. Que es lo que da mas dinero, e indirectamente con el tiempo se aplica al entorno usuario. O es que ahora pretendes descubrir las Americas

        • nouVeau_AyMD

          Claro, pero desarrollar para un entorno profesional no es sencillo… la adaptación a esas nuevas instrucciones no será de aquí a mañana, es más seguramente salgan dos generaciones de procesadores hasta que se les empiece a sacar partido en entornos profesionales “normales”, a excepción de aquellos que tengan que gestionar gran cantidad de datos en los que ese conjunto de instrucciones consiga marcar la diferencia, que en relación a todo el mercado profesional son pocos.

          Seguramente cuando eso suceda los procesadores actuales ni habrán usado apenas ese conjunto de instrucciones en toda su vida, y los nuevos… incluidos los de AMD, ya tengan ese conjunto de instrucciones en su set.

          Las américas se descubrieron hace mucho, al igual que lo que tu pones como peso de argumento, lo que ocurre es que el peso en lo que te apoyas se te ha ido para un lado y ha resbalado precipitandose al suelo, por que no tiene peso para el 90% de mercado, solo para uno muy específico actualmente, y futuramente.

        • trujo

          lo que tu digas hermoso, pero hasta que saquen esas adaptaciones aun siguen dándole en los morros a la competencia. Tiempo tienen, y dinero creo que a Intel no le falte.

        • nouVeau_AyMD

          Gracias por el cumplido. Le da en los morros en algo que no utiliza el 90% de mercado?, y que encima hace que esos mismos procesadores lleguen a picos de más de 90º… (por que no se si lo sabes, pero AVX512 calienta cojon y medio los procesadores, juntándose con el compuesto de mierda que llevan xDD) me encanta tu fanatismo incondicional, mientras te doy una palmadita para que vayas a descansar tranquilo 🙂

          Buenas noches!

        • trujo

          yo fanatismo? Por la boca muere el pez.
          Claro que el avx512 calienta un cojón. Igual que otras instrucciones. Igual que el HT.
          Ale, por tu sigue diciendo que CUDA y avx.512 no sirven.
          Alguno habrá por ahí que te crea.

          Por cierto, no veas que bien va en juegos el x5650 de hace 2 lustros. Igual aguanta otro mas.

        • nouVeau_AyMD

          Oh si, por la boca muere el pez… entonces tu acabastes como buen barbo de rio muerto en la caña del argumento tan real como que esas instrucciones el 90% de la población ni las huele, oh shit… argumento de “peso”.
          En ningún momento he dicho que CUDA no sirva, eso te lo has sacado de tu estúpida falta compresión lectora, solo he dicho que AVX512 no sirven para el 90% del mundo de aquí a 5 años mas o menos, y cuando empiece a ser útil por su implementación, todos los procesadores, incluidos los de AMD, llevarán ese set de instrucciones ;). Escuece la realidad, pero no es mi culpa que le pongas tanto peso a un argumento tan pésimo.

          20 años aguantará campeón… la mierda procesador con placa chinorri a saco, powaah… seguro que te crees que eres el único que se le ocurrió esa build, pero está tan quemadas que dejó de existir placas decentes para ese socket hace años, aunque seguro que tu llevarás y montarás placas chinas con VRM de mierda, pinta tienes chico Xeons xD

      • Joe Musashi

        Relájate chaval, que tu tampoco no tienes mucha más gracia.

        • Choosen

          Yo no estoy aquí para dar gracia muscari

        • Joe Musashi

          No falta que lo jures, se ve a kilómetros.

        • Choosen

          no te estoy jurando nada gaita

        • Joe Musashi

          Aprende un poco de educación antes nada, porque no nos llamas gallegos directamente?

        • Choosen

          Felicitaciones!

        • Joe Musashi

          Prefiero ser gallego un millón veces antes, aunque no lo sea realmente, antes que ser del agujero que has salido tu.

        • Choosen

          No es ningún agujero man! Enseguida se les chorrea la xenofobia a ustedes! es increible! Y así están….

        • Choosen

          Editado

        • Joe Musashi

          Crees que no se que en tu país hay los llamados chistes de gallegos?que conste que aquí hay unos cuantos argentinos y que son gente de puta madre, eh!

          Todo lo contrario a ti.

        • Choosen

          despedazándose por dentro.

        • Choosen

          me diste bastante repulsión. Paso de ti. Y suerte con los mambos

        • Joe Musashi

          Soy yo el que pasa de ti y creo que todos.

      • BakaBat

        Algo de gracia sí tiene, de hecho le voy a dejar mis dies y a ti esto…

        https://uploads.disquscdn.com/images/90c56b1fdf987d93ef696aed822dcbef68f125939b5847535eed1dcea2c91cc6.jpg

      • Johnny Rotten

        te estan borrando los mensajes! lo siguiente es ban

        • Joe Musashi

          A mi también me los han borrado, mejor así.

        • Johnny Rotten

          No le des de comer,en el momento que te ha llamado gallego de esa manera no le tenias que haber dado protagonismo

        • Joe Musashi

          No le contestes más y ya se cansará.

        • Choosen

          venga el Ban!!!!

        • Choosen

          cerdo burgues. Les dolió un poco de verdad y empezaron a borrar

        • Johnny Rotten

          ahora me llamas cerdo burgues?

          Pero tu quien coño te has creido?

        • Lesahe

          Todo imbécil execrable, que no tiene en el mundo nada de lo que pueda enorgullecerse, se refugia en un último recurso de inferioridad, de vanagloriarse en un grupo que pertenece por casualidad.

        • Soni Anderson

          convida LCDTH

    • Johnny Rotten

      fixea y pon un coffe lake

      😉

      • Joe Musashi

        Otro día lo haré.

  • Anony Anonymous

    Si realmente raja queria amd entonces dejo algo bueno para navi!

    • Javier Saove

      Raja solo para todo…..

  • La otra caja de Raja

    Que va a decir de la competencia, también dijo que las consolas eran una pérdida de tiempo/dinero y luego bien que fue a por la Switch
    http://i0.kym-cdn.com/photos/images/original/001/244/021/55e.png

    • Riwer

      Hombre, siendo justos Nvidia no ha ido a por las consolas, porque eso significa crear un chip custom (tiempo y dinero, aunque te lo financie el cliente).

      Nvidia se ha puesto a vender sus TegraX1 a Nintendo y ya xD

      • Johnny Rotten

        Nvidia no entro pork amd lo hace mas barato

        400 euros/500 es un precio asequible de salida,lo que costaba la ps3 no

        • Riwer

          Y aun era peor gpu que la AMD de xbox360.

          Pero quien mataba el precio de ps3 era el cell y una Sony que se vino muy arriba con el exito de ps2.

          Nvidia podria haber renegociado y no quiso bajarse la de burra.

  • AMDivia
  • Jeremy Straps
  • Antrax

    ¿Qué va a pasar con la nueva arquitectura Navi de AMD?

    Dudo que la cuatro ojos de Lisa Su se ponga a desarrollarla ella misma y tampoco se sabe si Raja llevaba algo de adelanto en dicha arquitectura antes de marcharse tomando en cuenta que los últimos meses se la pasaron planeando el lanzamiento desastroso de VEGA.

    Cuesta creer que contraten a alguien competente de la noche a la mañana y les desarrolle una arquitectura cojonuda.

    • Jeremy Straps

      Vender la división RTG es lo mejor que podrían hacer.

      Nvidia no les dará respiro y ahora tendrán que sumar a la competencia otro rival no sólo en gráficos integrados sino posiblemente en gráficos dedicados.

      • Riwer

        Hombre, yo con Intel en gpus no contaria a corto plazo, asi que aun se pueden plantear dar el mejor rebufo que puedan para Volta a ver si asi alguien se anima a comprarles Radeon xD

    • Johnny Rotten

      Navi hasta donde tengo entendido esta en fase adelantada,pero claro la fuente es reddit asi que vete tu a saber

  • Space Money

    AMD está muy ocupada fabricando APUs para jugar a 20-30fps en consolas e intentando meter Ryzen con calzador en el mercado mientras ha descuidado otras de sus divisiones.

    No se qué se pensaban. Una compañía que los últimos 5 años presentaba pérdidas intentando competir en todos los sectores de los dos gigantes del hardware.

    Al final se quedarán como el perro de las dos tortas. Ya sólo falta que Lisa Su se vaya a Qualcomm u otra compañía de interés para darle Jaque Mate a AMD.

    • R9 Fury

      ryzen con calzador?venga va,menudas chorradas te marcas

      • Space Money

        Si el pobre va de descuento en descuento igual que VEGA y ni así puede ponerse en primer puesto de ventas.

        La mayoría se ha dado cuenta que rinde menos en juegos y que se lanzó en fase beta con incompatibilidade de memorias y cualquier cantidad de problemas.

        • R9 Fury

          Madre mia con el rollo de las memorias,sois pesaditos con el tema,te guste o no los 1600 y los 1700 se estan vendiendo como churros,y a intel no le ha tocado otra que bajarse los pantalones,sacando los i7 de 6-12 nucleos y los i5 de 6 nucleos,sino seguiriamos pagando casi 400 euros por un 4/8 y tan contentos,es lo que tiene ser un fanboy

        • Space Money

          No se si se esten vendiendo como pan caliente. El i7 7700k y el i5 7600k de 4 núcleos ambos siguen vendiendose mejor que los Ryzen de 6 y 8 cores.

          Intel ya tenía procesadors de 6 y más cores desde hace años pero la tecnología debe avanzar.

        • R9 Fury

          el i7 7700k es una tostadora lo mires por donde lo mires,que ahora se llaman i3 8350k con el ht off xDD.
          La tecnologia debe avanzar y llevan 6 o 7 generaciones lanzando refritos desde sandy bridge,va por favor deja de decir chorradas,si amd no hubiese sacado ryzen estariamos con lo misma basura de siempre,y ahora no le ha quedado otra que sacar un i5 con 6 nucleos a precio de ryzen 1600,y los i7 lo mismo,por 300 euros te compras un 8/16 de amd y no me vengas con el rollo de los juegos,los pcs no son solo para jugar xDD.

        • SomeWeed4u

          el caso que se esta mas agustico jugando en un 4/8 de intel que en un 8/16 de amd lo mires por donde lo mires xD
          PD: yo mi 6700k no lo cambio por ningun rizen del mundo..

        • R9 Fury

          Es tu opinion xDD,anda que no hay gente que ha cambiado sus flamantes i7 por Ryzen

        • SomeWeed4u

          dolaro que es mi opinion, si solo lo uso para jugar, y en los juegos me va mejor un 4/8 nucleos, veo una tonteria pillar un procesador de más nucleos..

        • Arturo Dominguez Ten

          el 8700k rinde lo mismo que el 7700k ahí tienes razón, si es solo para jugar claro, pero en realidad en mononucleo rinden lo mismo a si que te daría igual, con la diferencia que si un día quieres hacer stream por ejemplo, o los juegos empiezan a aprovechar mas cores te renta mas el 8700k, y si que lo entiendo, seguramente lo entiendo mejor que tu ya que a mi no me hace falta meter mierda a otra marca porque yo utilice una, tu has empezado a criticar los ryzen cuando han sido lo mejor que le ha pasado al mercado de procesadores, gracias a intel la gente piensa como tu, solo necesito 4 cores para que mas, si no llega amd a sacar los ryzen los usuarios pro intel como tu seguiríais teniendo un 8700k que sería igual que el 7700k pero con mas oc de fábrica, con su típica pasta de dientes, y con picos de temperatura inhumanos, pero bueno tu sigue cerrado en lo tuyo y despotrica lo demas porque como es diferente ya no es bueno.

        • Arturo Dominguez Ten

          ni yo cambio mi ryzen 1600 por un i7 8700k por esa lógica, pero yo reconozco que en rendimiento el 8700k se ríe de mi ryzen, pero también cuesta el doble, mejor meter mierda a amd ¿verdad?, sabiendo que el 1600 es el mejor calidad/precio del mercado.

        • SomeWeed4u

          el caso que por mas nucleo que lleve no quiere decir que para que lo quiero sea mejor…de hecho 4/8 me viene mejor que 8/16.si no lo entiendes no es mi problema..

  • peters

    Raja es un mediocre. A ver si jode Intel un poco que ya ha hundido suficiente a AMD

    • Antrax

      Dudo que una compañía de talla mundial contrate a un mediocre para dirigir una de sus divisiones más importantes sin comprobar experiencia previa.

      El tipo debe saber lo suyo pero el equipo que lo rodea y el presupuesto también cuenta. Es como ser ingeniero de motores de Red Bull y querer competir contra el equipo de Ferrari en la F1.

      Con que logre un buen incremento en los gráficos integrados de Intel en portátiles habrá hecho buen trabajo pues es donde más flaquea Intel.

      • peters

        Pues redbull ganaba a Ferrari todos estos años

        • Antrax

          Con un Motor Renault y con Vettel al mando, y eso fue hace 4 años.

    • Adrián Ramón Plá

      Jajaja. lo que hace la ignorancia! No tienes ni idea quién es Koduri…. el ingeniero que hizo que la ex ATI y su línea Radeon sea por primera vez tenida en cuenta por los gamers entusiastas…. puso en aprietes a Nvidia cuando tenía su nefasta linea FX….

      • peters

        Ya veo que estas ciego por la ignorancia y la pleitesia a un tipo que solo ha sacado unas mierdas de vega que no compiten con nada. Se va, o mejor dicho lo echan por el gran fracaso de vega

  • Jorge

    Hablando del CEO está en transmisión ahora
    https://www.ustream.tv/NVIDIA

  • Adrián Ramón Plá

    A ver muchos decían quien era Koduri, y por qué le dan tanta bola, por algo será, no? Hasta el chino de Jensen habló, está cagao!

    • Space Money

      Está cagao pero de la risa.

      Se ha asegurado que en 2018 no tendrá competencia.

      • Adrián Ramón Plá

        Un buen CEO no se mete en puteríos… algo mas serio man!

        • Space Money

          No ha dicho nada malo. AMD se encuentra sin cabeza en Radeon Technologies Group y Volta le pasará la escoba a AMD en el 2018.

          Al tío Jen-Hsun se la suda a dónde vaya a parar Raja y compañía. Está nadando en billetes.

        • Adrián Ramón Plá

          Y? Para vos ese tipo de personas son las mejores? Las que nadan en billetes y se ríen en tu cara? Deplorable, puajjjj!

        • Space Money

          No se ha reído en la cara de nadie. Sólo ha dicho que la partida de Raja es una gran pérdida para AMD, lo cual es verdad.

          Algunos están muy sensibles porque se ha ido su creador de refritos.

        • SomeWeed4u

          has dado en el clavo..jajajaj

      • ikergarcia1996

        Estoy completamente seguro que después de saber que el mayor fabricante de chips del mundo, que cuenta con un presupuesto brutal, cientos de miles de empleados, los mejores procesos da fabricación del mundo… va a entrar en competencia directa con ellos, en Nvidia estan cagados de la risa. Ahora mismo tienen que tener los huevos de corbata.

  • Adrián Ramón Plá

    Koduri no dejó una arquitectura nueva a AMD para que la trabaje en los próximos años al mejor estilo Jim Keller? Koduri no diseñó ni trabajó en GCN…

    http://www.mercurynews.com/2017/11/13/lisa-su-has-amd-moving-in-the-right-direction/

  • Anony Anonymous
    • Koorvo

      as always tratado con demagogia y populismo. No hay mejor manera de crecer como vloger que decirle a la gente lo que quiere oír “somos especiales porque sabemos que esta industria está podrida y el resto de los mortales no! galletita”

      • AMDivia

        La palabra de un “lider de opinión” no se cuestiona.
        /s

  • Chapacosoy

    Es evidente que el camino que marca NVidia con sus Gpus
    para el dominio e implantación de la IA es el correcto.
    Por lo cual hasta Intel intenta emular y de ahí la contratación
    de Raja ” disque experto en arquitecturas de procesadores
    gráficos ” para plantar batalla , pero NVidia lleva un gran
    trecho de avance .

    • charbel peña

      AMD es la que tiene el dominio en IA nvidia saca pecho solo en asistencia de drivers ya que sus gpus no están tan optimizadas a los cálculos (Kepler fue su última arquitectura enfocada más a estas operaciones )
      Raja aún que no lo creas hizo milagros con Radeon desde el cambio de drivers hasta Polaris o Vega y más cuando su desarrollo estaba en números rojos que lo que les dan para investigación es lo min si Intel lo pillo fue por el cambio que hizo a AMD con los recursos limitados que tenía
      Nvidia tubo un buen Boost por parte de Intel esos 5 años no creas que el cambio de Kepler a maxwell fue gratis alquien tenía que pagar
      Y este será un muy buen Boost para AMD (almenos durante unos años en lo que crean una arquitectura desde 0 almenos 2 años necesitaran con los recursos que tienen)

      • lbra

        Pero si nvidia tiene volta para IA y 25 de sus gpus eran como 100 de AMD consumiendo una ínfima parte…

        • charbel peña

          Pues en IA la Radeon instic de AMD tienen más poder ya que está más enfocada a cálculos de hecho ambas tienen 15tflops en fp32 la dif es que nvidia tiene un chip para ia integrado aún que para usarlo necesita bastante mas optimización y la mejora solo se ve despues de largos plazos (aprende a acortar instrucciones) además de que con lo que compran una v100 y lo que cobra nvidia en optimización sacan más poder en contraparte de AMD en IA les importa sacar más potencia costo que energía poder además de que en esos aceleradores las diferencias de consumos son infimas otra cosa es que aún que nvidia es más “económica” energéticamente (entre comillas por qué todos consumes burradas de luz) los pagos de atención personalizados son más caros a la larga y los deben hacer cada ves que cambian variables en la IA (cuando es la misma no afecta pero en esos estudios siempre se realizan cambios para mejorar la eficiencia)

        • lbra

          Ni de broma, con el dgx-1 se demostró que AMD en ese sentido está descolgadísima.

          AMD necesita 120 gpus para llegar a 3 petaflops en el instinct, mientras nvidia con 8 gpus hace 0.9 petaflops (30 vs 120 gpus), 36000w vs 3200 w, (10000w) , todo en fp 16.

          Lo puedes ver en la noticia del dgx 1v de elchapuzas y los comentarios.

  • Luis Navarrete

    buenas. estoy por comprar una motherboard para ryzen AM4 y estoy entre estas dos

    http://www.gigabyte.us/Moth

    https://www.asrock.com/mb/A

    ¿cual de las dos escogerian?

    PD: pienso comprar un athlon 950 AM4 para luego actualizar a una APU Raven ridge

    • FERNANDO

      No funcionan tus link, yo tengo gigabyte para mi ryzen, pero asrock también es una excelente opción.

  • RedBaroon

    EA reduce el precio de los héroes de SW Battlefront 2 en 75%

    https://www.pcgamesn.com/star-wars-battlefront-ii/battlefront-2-microtransactions-darth-vader

    La internet llorona ha hecho su trabajo

  • Victor Wiener

    Aiii Juanito que sientes el aliento de Intel en tu nuca….

    • RedBaroon

      Por ahora nadie sabe para que fue llevado Raja a Intel.

      Podría ser para trabajar en gráficas dedicadas o bien sólo para gráficas integradas en sus procesadores.

      En cualquier caso dudo que Intel pueda competir en rendimiento con las gráficas de Nvidia, ya no digamos en precio.

      • Victor Wiener

        En teoría será para dedicadas… ya se dijo. Y seguramente para IA, y NVIDIA está sacando un pastizal de ese sector

        • RedBaroon

          Si son igual de caras que sus SSD Optane y su procesadores de alto rendimiento se las va a comprar quien yo me sé.

        • Victor Wiener

          No se si veremos para gaming….

        • charbel peña

          Son para el sector profesional además de que en esos sectores se paga una pasta por la capacidad de cómputo (vamos que tanto a AMD como nvidia les va bien en esa área aún que AMD saca pecho en los cálculos computacionales (por eso se usan más gpus de AMD que de nvidia ) nvidia les saca pecho por la asistencia de drivers en el sector profesional) además de que pagan más pastizal en asistencia personalizada lo que se sabe hasta ahora es que es para un sucesor de su serie Knight

  • danilo riiver

    yo que el me apuro a quemar las 1060 y 1070 actuales no vayan a ser que saturen el mercado unos driver dead no le vendrian nada mal al mercado :V

  • Elfonegro

    En caso de que Intel decidiera hacer graficas dedicadas para gaming y empezaran ahora desde cero, no esperaria nada hasta dentro de 3 o 4 años como minimo.

    Les queda un largo camino de I+D para ponerse al dia sin pisar las patentes de AMD y Nvidia.

    • Angie__X

      Intel es la empresa que mas gasta en desarrollo e investigacion….no te extrañe alguna sorpresa…

      intel no va a hacer el tonto como amd sacando graficas del monton si se pone a ello…

      • Elfonegro

        No digo que no lo vayan a hacer bien. Si no que me resulta bastante dificil pensar que puedan ponerse en poco tiempo al nivel de empresas que llevan mucho desarrollando GPUs y tienen una base solida de tecnologias propietarias.

        Hasta ahora incluso para sus integradas, tuvieron que pagar 1.500 millones por licencias a Nvidia durante 5 años.

  • ¡La mano arriba` cintura sola, la media vuelta y raja koduri!

  • danilo riiver

    gracias gabern al fin peso argentinos a steam :V

  • nem

    intel diseñando buenas gpus dedicadas… :))
    http://i2.ytimg.com/vi/evrVQDxPaww/hqdefault.jpg

  • XxPirañamanxX

    Yo creo que Amd no ha sabido jugar bien sus cartas, a pesar de que en graficas en gama alta estaban varios escalones por debajo de la competencia lo que realmente les ha pasado factura estos ultimos 5 meses ( almenos en el sector gaming) ha sido la subida de precio escandalosa y la falta de stock de la serie RX.

    Es incomprensible como coño una compañia ante el aumento significativo de demanda de sus graficas en el sector minado no han sido capaz de reaccionar rapidamente y abastecer al sector gamig ya sea sacando modelos custom optimizados exclusivamente para dicho mercado y version estandar para el sector gaming, hay que ser imbecil se te presenta una oportunidad de oro para vender graficas como churros y la desperdicias.

    Al final el usuario gamer de a pie con los huevos inflados por la subida de precio y falta de stock no le ha quedado mas remedio que irse a Nvidia, luego esta el factor de siempre, llegar TARDE Y MAL, si lo haces sacando un producto relación precio/rendimiento superior al de la competencia no hay problema ( claro ejemplo RYZEN) sus primeros meses, bios verdes con el tema de icompatibilidad de las rams, etc.

    Si la serie rx 470/480 hubiesen sacado los modelos custom ni que sea 1 mes mas tarde que la competencia a buen precio otro gallo cantaría, incluido con vega 56 la cual me parece una muy buena grafica con un consumo mas contenido frente a la 64, pero no al precio actual y menos las de turbina, si vega 56 hubiese salido como mucho un par de meses mas tarde que la 1070 a un precio razonable mas de un usuario se lo hubiese pensado, en lo unico que han acertado es apostar es su tecnologia freesync siendo claramente mas accesible que la competencia, pero en el tema de planificación en cuanto a fechas de lanzamientos de sus gpus han sido un autentico desastre.