Meta anuncia Llama 3: rendimiento comparado a Google Gemini y optimización para el hardware de Intel y NVIDIA

OpenAI desarrolló ChatGPT inicialmente utilizando su modelo de IA GPT-3.5, para luego posteriormente actualizarlo a GPT-4. Desde un principio, muchas compañías han estado intentando superarlo y para ello, han publicado sus últimos avances en modelos de IA. Aquí hemos visto muchos casos como el de Google con Gemini o el de Anthropic con Claude 3. En todos esos casos, las compañías muestran como sus modelos son superiores y ahora volvemos a ver lo mismo pero en el caso de Meta con Llama 3, además de ver su rendimiento en Intel y NVIDIA.

Meta ha estado desarrollando sus propios modelos de IA desde hace un tiempo, pues fue en febrero de 2023 cuando anunció la primera versión de Llama. Este se trataba de un modelo lingüístico de gran tamaño que daría vida a la IA de Meta y así poder competir contra el resto de empresas. Esta primera versión se lanzó en 4 tamaños distintos, pasando de 7.000 a 65.000 millones de parámetros en el más avanzado de estos.

Meta presenta su nuevo modelo de IA Llama 3, el cual supera a Google Gemini Pro y Claude 3 en 3 de 5 casos

Meta Llama 3 vs IA

En la actualidad, Meta ha anunciado su modelo de IA Llama 3, que según la compañía es superior a la competencia. Tal y como podemos ver, Llama 3 es superior en todos los aspectos en la primera tabla comparativa, donde supera tanto a los modelos Gemma 7B como Mistral 7B Instruct. Meta anuncia que Llama 3 8B se trata de un modelo con 8.000 millones de parámetros, mientras que la versión 70B tiene 70.000 millones de parámetros.

Esta última ha sido la que ha competido contra los pesos pesados de la IA moderna, Google Gemini Pro 1.5 y Anthropic Claude 3 Sonnet. Aquí podemos ver como Llama 3 no queda en tan buena posición como antes, pero acaba liderando en 3 pruebas: MMLU, HumanEval y GSM-8K. Curiosamente, Meta no menciona a GPT-4, el modelo que da vida a ChatGPT y que a su vez teóricamente fue superado por Google Gemini y Anthropic Claude 3 con facilidad.

La IA Llama 3 estará optimizada para hardware de Intel y de NVIDIA

Llama 3 IA rendimiento

Meta Llama 3 se estrena por todo lo alto, pues con su debut hemos visto también anuncios por parte de Intel y NVIDIA. Empezando por la compañía azul, Intel ha anunciado que sus procesadores Xeon y Core Ultra junto con sus gráficas Arc y aceleradores Gaudi, estarán optimizados para la IA Meta Llama 3. Esto es gracias a que se disponen de tecnologías de aceleración de IA como AMX (Advanced Matrix Extension) y XMX (Xe Matrix Extensions) en CPU y GPU, respectivamente. Podemos ver así que con los futuros Intel Xeon 6 Granite Rapids con P-Cores, podremos conseguir un rendimiento dos veces superior en Llama 3.

Ahora pasamos a ver la noticia de NVIDIA, pues la popular compañía de tarjetas gráficas también anuncia que sus GPU estarán optimizadas para la Llama 3. Eso sí, a diferencia de Intel, esta vez han sido las GPU H100 de NVIDIA las que se han encargado de entrenar el modelo de Meta utilizando un total de 24.576 gráficas. También se ha mencionado como una GPU NVIDIA H200 logra alrededor de 3000 tokens/segundo, permitiendo atender a unas 300 personas de forma simultánea y a su vez un NVIDIA HGX podría hacerlo con 2.400 usuarios al mismo tiempo.