Según Nvidia, las CPUs ARM no tienen nada que envidiarle a las CPUs x86

Nvidia no se quita de la cabeza a ARM, y mientras que intenta completar la adquisición, la compañía ha mostrado por qué tiene tanto interés al comprar al principal fabricante de chips móviles, y es que combinando un procesador ARM junto a una gráfica Nvidia A100, estos procesadores no tienen nada que envidiar a la arquitectura x86 en inferencia, ya que si bien no le supera el rendimiento, al menos aguanta bastante bien el tipo y todo ello adererezado de bajos consumos energéticos, al menos cuando no se exprime el silicio con altas frecuencias.

Un claro ejemplo lo vimos ayer con el Apple A15 Bionic, que al pasar de los 3.00 GHz a 3.23 GHz vio como su consumo energético aumentaba en hasta un 28 por ciento para obtener una mejora de rendimiento del 14,6%.

Servidor ARM vs x86 con GPU Nvidia A100

"ARM, como miembro fundador de MLCommons, está comprometido con el proceso de creación de estándares y puntos de referencia para abordar mejor los desafíos e inspirar la innovación en la industria de la computación acelerada", dijo David Lecomber, un director senior de HPC y herramientas en ARM.

"Los últimos resultados de las inferencias demuestran la preparación de los sistemas basados en ARM y dotados de CPUs basadas en ARM y GPUs de Nvidia para abordar una amplia gama de cargas de trabajo de IA en el centro de datos",.

Cuando se habla de inferencia, las GPU siguen siendo el rey, y es por ello Nvidia sacó pecho indicando que su Nvidia A100 es 104 veces más rápida que una CPU en las pruebas MLPERF. De ahí el interés mutuo de ARM y Nvidia de cerrar el acuerdo, y es que ambas compañías saldrán beneficiadas.

Nvidia A100 vs Intel Xeon 8380 vs Qualcom AI 100

"La inferencia es lo que ocurre cuando un ordenador ejecuta un software de IA para reconocer un objeto o hacer una predicción. Es un proceso que utiliza un modelo de aprendizaje profundo para filtrar los datos, encontrando resultados que ningún humano podría captar.

Las pruebas de inferencia de MLPerf se basan en las cargas de trabajo y los escenarios de IA más populares de la actualidad, y abarcan la visión por ordenador, las imágenes médicas, el procesamiento del lenguaje natural, los sistemas de recomendación y el aprendizaje por refuerzo, entre otros."

vía: Wccftech

Artículos relacionados