NVIDIA: «Las CPU son cosa de 1964, comprar una GPU es como si obtuvieses un descuento del 95%»

Como motivo del Snowflake Summit 2023 desde New York, NVIDIA y la compañía (Snowflake) han llegado a un acuerdo de colaboración para implementar su tecnología NeMo, gracias, obviamente, a su hardware. Pero esto no es lo realmente importante. Lo que sí que lo es son las declaraciones de su CEO, Jensen Huang, que al ser preguntado por algunos periodistas dejó unas declaraciones que evidencian el enfoque de su compañía en este momento y en el futuro. ¿Son las CPU una cosa de 1964 como afirma NVIDIA?

En un marco y argumento sobre "cómo llevar la IA generativa a los usuarios empresariales" la compañía verde ha dejado interesantes puntos de vista que no habíamos escuchado nunca, y menos por parte de Huang. Que la IA va a ser revolucionaria como tal nadie lo discute, pero que vaya a cambiar el paradigma de la computación a todos los niveles... Eso quizás es más discutible.

Las empresas y los usuarios deben de "acelerar" ahora

NVIDIA-Snowflake

Llevar la IA a los usuarios y empresas, una tarea nada simple y que, en cambio, a NVIDIA se le está dando realmente bien. Huang dijo hace algunos meses que veía el futuro de las empresas y la humanidad con IA por todas partes, y puede que no le falte razón.

Pero ahora va un paso más allá al afirmar que estamos siendo testigos de un nuevo cambio, un giro a lo existente que implica un nuevo tipo de plataforma informática que no se había visto en 60 años. De hecho, Huang afirma que si cualquier empresa o usuario profesional compra una gran cantidad de CPU de cara al próximo año, a trabajar con ellos para 2024, el rendimiento informático como tal no aumentará, no tendremos una aceleración considerable.

Por tanto, NVIDIA afirma que todos debemos "acelerar", en referencia clara a sus plataformas y a la propia IA, pero, ¿cuánto de verdad hay en esto?

NVIDIA afirma que la CPU y otros conceptos anexos a ella son cosa de 1964

NVIDIA-CPU-1964-Snowflake-Summit-2023

Si el argumento y opinión anteriores son ya difíciles de justificar en estos momentos, y mucho más después de ver el AMD Instinct MI300 y sus variantes, el que llega no es menos controvertido. Huang afirmó que conceptos como CPU, subsistemas, IO, DMA, memoria virtual o multitarea, son cosa de 1964.

Todo en el marco de que estos han ayudado a empresas y usuarios a continuar escalando las CPU durante los mencionados 60 años, pero que esto ha llegado a su fin ahora. Para rematar las declaraciones, Huang afirmó que, efectivamente, sus GPU son caras, son costosas para empresas y usuarios, pero que al adquirir una equivale a tener un descuento del 95% aproximadamente:

"Si vas a cualquier nube (Cloud), verás que las GPU de NVIDIA son la entidad informática más cara que existe. Pero verás que las estamos haciendo tan rápido (en rendimiento) que es como si estuvieras obteniendo un 95% de descuento."

El hecho de que las CPU estén migrando de cierta manera a un componente capaz de trabajar cada vez más rápido y con más potencia dentro del software destinado a entrenamiento de IA y a sus datos como tal evidencia que Huang lleva algo de razón sin duda.

Pero de ahí a sus declaraciones, en contexto general, hay un gran salto, que, de producirse, no será desde luego en esta década, aunque... ¿Realmente asumirán las GPU las tareas de la CPU en un futuro? Dada la naturaleza de ambas y la forma de trabajar la información y gestión se nos hace realmente complejo pensar en una plataforma sin CPU, pero quién sabe lo que tiene preparado NVIDIA... ¿Quizás el concepto de Grace sea más importante en unos años?