Google Cloud x NVIDIA: una alianza para dominar el mercado de la IA
Google Cloud anunció que ha unido sus fuerzas con NVIDIA. El resultado de esta alianza es crear una nueva infraestructura y software de IA para que los clientes creen e implanten modelos masivos de IA generativa y aceleren las cargas de trabajo de ciencia de datos. Para ello, esta alianza proporcionará servicios integrales de aprendizaje automático a algunos de los mayores clientes de IA del mundo. Esto facilitará la ejecución de superordenadores de IA con ofertas de Google Cloud basadas en tecnologías de NVIDIA.
Como resumen de la historia, todo el hardware que emplee Google, para cualquier cosa relacionada con la IA, será de NVIDIA. Esto pasa por usar varios tipos de GPU, servidores e infraestructura de NVIDIA.
Hablamos de máquinas virtuales y la plataforma de IA Google Cloud Vertex propulsadas por GPUs NVIDIA H100. Google Cloud será la una de las primeras compañías del mundo en tener acceso al superordenador de IA NVIDIA DGX con gráficas NVIDIA GH200. También tendrá acceso a los servidores DGX Cloud, NVIDIA AI Enterpirse estará en el marketplace de Google Cloud, y serán los primeros en tener las GPU NVIDIA L4 Tensor Core para carga de trabajo de vídeo por IA.
Comunicado oficial de Google Cloud y NVIDIA
"Estamos en un punto de inflexión en el que la computación acelerada y la IA generativa se han unido para acelerar la innovación a un ritmo sin precedentes", dijo Hensen Huang, CEO de NVIDIA.
"Nuestra colaboración ampliada con Google Cloud ayudará a los desarrolladores a acelerar su trabajo con infraestructura, software y servicios que sobrealimentan la eficiencia energética y reducen los costes."
"Google Cloud tiene una larga historia de innovación en IA para fomentar y acelerar la innovación para nuestros clientes", dijo Thomas Kurian, CEO de Google Cloud.
"Muchos de los productos de Google se construyen y se sirven en las GPU NVIDIA, y muchos de nuestros clientes están buscando la computación acelerada de NVIDIA para impulsar el desarrollo eficiente de LLM para avanzar en la IA generativa."
Integraciones de NVIDIA para acelerar el desarrollo de la IA y la ciencia de datos
PaxML, el marco de trabajo de Google para construir grandes modelos de lenguaje (LLM) masivos, ahora está optimizado para la computación acelerada de NVIDIA. Creado originalmente para abarcar varios segmentos del acelerador TPU de Google, ahora a los desarrolladores pueden utilizar las GPU NVIDIA H100 y A100 Tensor Core para experimentar y escalar de forma avanzada y totalmente configurable.
Google DeepMind y otros investigadores de Google se encuentran entre los primeros en utilizar PaxML con las GPU NVIDIA para investigación exploratoria. El contenedor optimizado por NVIDIA para PaxML estará disponible de inmediato en el registro de contenedores NGC de NVIDIA para investigadores, nuevas empresas y compañías de todo el mundo que estén creando la próxima generación de aplicaciones basadas en IA.
Asimismo, las compañías han anunciado la integración de Spark sin servidor con las GPU NVIDIA a través del servicio Dataproc de Google. Esto ayudará a los científicos de datos a acelerar las cargas de trabajo de Apache Spark para preparar los datos para el desarrollo de IA.