Intel Lake Crest: CPU pensada para la Inteligencia Artificial con 32GB HBM2

AMD ha puesto toda la carne en el asador con Ryzen, su nueva familia de procesadores que estrenará algunas características tecnológicas que Intel no ha sido capaz de ofrecer ni en sus procesadores tope de gama. Pero si bien Intel se ha acomodado mucho en el segmento de consumo, esto en otros segmentos es todo lo contrario, una prueba de ello es su nuevo procesador Lake Crest, el cual dará vida a una nueva red neuronal profunda, también llamada sistemas conexionistas, que la volverá a llevar una vez más al liderazgo tecnológico sin necesidad de depender de un procesador gráfico.

 0

Lake Crest se ha hecho teniendo en cuenta las cargas de trabajo de las DNN (Deep Neural Network), por lo que competirá mejor contra las ofertas basadas en tarjetas gráficas de AMD y Nvidia. Todo comenzó cuando Intel adquirió a Nervana, una empresa enfocada al aprendizaje profundo por la que desembolsó 350 millones de dólares el pasado año, por lo que el catalizador de esta asociación es la nueva arquitectura de Lake Crest.

"Hemos desarrollado el hardware de Nervana especialmente en lo que se refiere a las cargas de trabajo de aprendizaje profundo. En este área a menudo se usan dos operaciones: la multiplicación matricial y la convolución", dijo Naveen Rao, Vicepresidente de Datacenter Group y GM para soluciones de IA de Intel.

La próxima generación de CPUs Lake Crest funcionará como un coprocesador de Xeon, pero está diseñado para aumentar en gran medida la carga de trabajo en IA gracias a la nueva arquitectura "Flexpoint" de Intel que se utilizará dentro de los nodos aritméticos de la nueva arquitectura de la CPU. La nueva súper potencia generada por Intel puede aumentar las operaciones aritméticas en la CPU en hasta 10 veces, además de ofrecer un diseño MCM (Multi Chip Module).

 1

La CPU Lake Crest estará apoyada por nada menos que 32 GB de memoria HBM2 (en 4 pilas de 8 GB) que le otorgará un ancho de banda de memoria de 8 TB/s a la CPU y que supera en hasta 12 veces el rendimiento de la memoria DDR4. Intel usará "enlaces propietarios de interconexión" que la compañía dice son "hasta 20 veces más rápidos que la interfaz PCIe".

"Esperamos que la plataforma de Intel Nervana produzca un gran rendimiento y drásticas reducciones en el tiempo necesario para entrenar redes neuronales complejas. Intel ofrecerá un aumento de 100 veces en el rendimiento dará un gran impulso al ritmo de la innovación en el espacio del aprendizaje profundo emergente".

 2

vía: TweakTown

Artículos relacionados