NVIDIA: «Los chips están cerca del límite, necesitamos la partícula de Ant-Man»

Con motivo de la donación que Jensen Huang y su mujer Lori iban a hacer a la Universidad Estatal de Oregón por un valor de 50 millones de dólares, el CEO de NVIDIA ha deslizado en dicho evento unas declaraciones preocupantes que, por otro lado, también hemos ido viendo con empresas del sector como Samsung o TSMC. Y no es más que el límite que están alcanzando los semiconductores y chips, donde NVIDIA a través de Jensen ha dejado una nota de humor y ha puesto un poco más de foco en lo que está por venir.

La entrevista que concedió Huang no tiene desperdicio alguno, y es que el enfoque que se va a necesitar para llegar a escala subatómica nos está llevando a una serie de procesos que está disparando los costes y el tiempo. Por ello, según Huang, las universidades y empresas tienen que hacerse con superordenadores basados en IA, porque lo que antes tardaba un mes en realizarse ahora se puede hacer en un día. Es, según él, "una máquina del tiempo donde poder ver el futuro que no imaginabas".

La IA es una de las tecnologías más transformadoras de la historia

NVIDIA-IA

Eso es lo que afirma el CEO de NVIDIA, y aunque esta está llegando a las grandes empresas de tecnología del mundo, según Jensen hay que ponerla en manos de científicos para que puedan aplicarla en los desafíos más importantes y apremiantes:

La mayoría de las universidades no tienen el presupuesto. Y es realmente una lástima que la mayoría de ellas hoy todavía [no hayan] aceptado la idea de que para avanzar en los campos más importantes de la ciencia, se necesita un nuevo tipo de instrumento, al igual que necesitábamos radiotelescopios, al igual que necesitábamos aceleradores de partículas. Necesitamos instrumentos para hacer avanzar la ciencia.

Sigue argumentando que el método de cálculo de datos necesita más que nunca un superordenador, pero, en cambio, las universidades dejan casi todo el presupuesto en los edificios, una parte menor va a los científicos y finalmente no hay presupuesto para estos superordenadores, por lo que la ciencia avanza de forma mucho más despacio de lo que debería.

NVIDIA: "Los chips y la industria de los semiconductores están casi al límite"

NVIDIA-chips-semiconductores-límite-superordenador-Oregon-State-University

 

Con una apreciación de humor, aunque la realidad es que no va muy desencaminado de la realidad, Huang ha deslizado que la industria está cerca del límite, como ya vimos con los 2 nm de Samsung y los 18A de Intel, o los nuevos TSMC N2 que apenas aumentan densidad:

La industria de los semiconductores está cerca del límite. Está cerca del límite en el sentido de que podemos seguir reduciendo los transistores pero no podemos reducir los átomos, hasta que descubramos la misma partícula que descubrió Ant-Man, como en la película de Marvell. Nuestros transistores van a encontrar los límites y ya estamos en escalas atómicas. Y entonces [este problema] esto es algo donde la ciencia material realmente será útil.

Gran parte de la industria de los semiconductores se regirá por los avances de las ciencias de los materiales, y las ciencias de los materiales de hoy en día son un problema enormemente complicado porque las cosas son muy pequeñas, y sin una tecnología como la Inteligencia Artificial simplemente no vamos a ser capaces de simular la complicada combinación de física y química que ocurre dentro de estos dispositivos. Y con esto, se ha demostrado que la inteligencia artificial es muy efectiva para avanzar en el diseño de, por ejemplo, baterías. Va a ser muy eficaz en el descubrimiento y ya ha contribuido al avance de materiales más duraderos y ligeros. Y no tengo ninguna duda de que contribuirá al avance de la física de los semiconductores.

La siguiente pregunta era obligada, dada la controversia que creó, algo que ya comentamos en sus declaraciones de hace más de un mes, pero que ahora le añade todavía más pimienta al asunto.

La Ley de Moore y la Ley de Dennard, ¿están KO definitivamente?

Directamente al grano y siendo conciso. NVIDIA cree que, efectivamente, ambas están muertas y estamos en un nuevo paradigma del que tenemos que salir:

Para ser serio y hablar honestamente, creo que la definición de la Ley de Moore trata del hecho de que los ordenadores normales y los ordenadores avanzados podrían permitirnos hacer 10 veces más computación cada cinco años, es dos veces cada año y medio, pero es más fácil decir 10 veces cada cinco años, con un costo menor. De modo que podríamos hacer 10 veces más procesamiento al mismo costo.

En realidad, nadie lo niega a nivel de la física. La escala de Dennard terminó hace cerca de 10 años y se podían ver las curvas aplanadas. Todo el mundo ha visto las curvas aplanarse, no soy la única persona. Así que la capacidad para nosotros de continuar escalando 10 veces cada cinco años, la hemos sobrepasado, está detrás de nosotros en este momento. Ahora se podría discutir un poco si estamos consiguiendo aproximadamente duplicar el rendimiento cada cinco años. Podríamos discutir un poco al respecto, pero ahora, durante 10 años, la disparidad entre la Ley de Moore es 100 veces frente a cuatro veces, y en 15 años, será 1000 veces frente a ocho.

Ley-de-Moore

Podríamos esconder la cabeza en la arena, pero tenemos que reconocer el hecho de que tenemos que hacer algo diferente. De eso se trata realmente. Si no hacemos algo diferente y no aplicamos una forma diferente de computación, lo que sucederá es que los centros de datos del mundo continuarán consumiendo más y más de la energía total del mundo. Ya se nota, ¿no? Cada cinco años aumentará por un factor de 10.

Parece que Huang lo tiene claro, lo que debemos de entender de esto es que, aunque lleva razón, omite una parte importante del hecho de duplicar el rendimiento cada cinco años como afirma, y es que los costes no paran de aumentar, así que entre que el límite se acerca y cada vez es más caro llegar a él, es más que probable que, como también afirma en la entrevista, se tenga que ofrecer mejores precios al usuario, pero eso, aunque no lo comenta, implicará romper ese ratio a costa de un menor rendimiento por cada generación.

Creo que todos los presentes firmarían obtener menor rendimiento a costa de un precio más asequible. El problema es que nadie piensa así, todo el mundo empujará hasta que las ventas caigan y se den cuenta dónde está el límite del usuario. Porque si los semiconductores tienen un límite físico, la cartera del gamer medio lo tiene antes, y eso se verá en no demasiado tiempo, y si no que le pregunten a Apple... Tal y como dice NVIDIA, ¿está la industria de los semiconductores y chips al límite?