Tesla quiere dar el salto a la memoria HBM4 en su Superordenador Dojo para mejorar la IA de sus coches con conducción autónoma total
Hace ya algunos años desde que Tesla puso en marcha su Superordenador Dojo, el cual ha trabajado intensamente en los modelos de IA que tienen sus coches. Pero Elon Musk cree que es hora de dar el siguiente paso, y para ello se requiere nuevo hardware que permita mayor capacidad de cálculo, en concreto, nueva memoria. Por ello, Tesla está preguntando a los dos mayores fabricantes de este componente sobre sus nuevas HBM4, la cual introducirán con nuevo hardware en Dojo de cara al año que viene.
Mantenerse a la vanguardia es clave si estás apostando tu empresa al software como hace Tesla. Por eso, Musk pretende tomar la delantera a cualquier rival, sobre todo europeo o chino, y ha ido a Corea del Sur a tocar a la puerta de los dos mejores y más avanzados fabricantes de memoria para conocer de primera mano las novedades que tienen preparadas para el año que viene.
Tesla a por Samsung y SK Hynix en busca de la memoria HBM4 para Dojo
Y es que la mayor potencia que tendrán tanto AMD como Intel y NVIDIA es clave, pero lo es mucho más la memoria, porque en el sector de la IA es casi más importante que la GPU. Por ello, Musk ha pedido muestras de ingeniería a Samsung y SK Hynix de sus chips de memoria HBM4, los cuales tendrán un exhaustivo testeo para ver hasta dónde pueden llegar y cuánto puede mejorar el Tesla Dojo con ellas.
Por lo que han hablado los dos fabricantes, sobre todo Samsung, esperan llegar a los 2 TB/s de ancho de banda y hasta 48 GB de capacidad, lo que supone un +66% y un +33% frente a HBM3E en un solo salto generacional.
SK Hynix por su parte, más comedidos, han comentado que ofrecerán 1,4x más de ancho de banda con un 30% menos de consumo energético que su HBM3E actual con 48 GB de capacidad de almacenamiento total. Esto supondría, si no están mal hechos los cálculos, sobre los 1,7 TB/s en peak, algo por detrás de Samsung, pero parece que consumiendo algo menos de vatios.
Conseguir la capacidad autónoma total en sus coches
Tesla busca la ansiada conducción autónoma total con una capacidad de cálculo sin precedentes dentro de lo que debería ser HW5.0 o su versión mejorada. Pero para ello Dojo tiene que hacer su trabajo de entrenamiento antes, de manera que se pueda exportar la IA ya pre-entrenada gracias a las HBM4 a cualquier Tesla.
Sabiendo que NVIDIA ha retrasado Rubin como arquitectura para GPU a 2026 esperando también a Samsung y SK Hynix con sus HBM4 en producción en masa para dicho año, Tesla tiene por delante muchos meses para asegurarse capacidad de producción con ellos. Pero si no fuese posible, aunque algo más tarde, quedaría Micron, que parece algo rezagada y que tiene que trabajar en recortar meses al calendario para llegar lo más cerca posible de sus dos grandes rivales.
Hay que tener en cuenta la complejidad de la HBM4, que será de tipo CIM (Computer-in-Memory), de ahí que Tesla esté tan interesada para Dojo. El mercado de los coches autónomos no para de crecer y China está apretando de lo lindo. Entre tanto, Europa intenta no perder comba, aunque muchos dicen que han perdido la batalla, y los despidos de Volkswagen de aquí a 2030 solo indican que las reestructuraciones ni son rápidas, ni son fáciles, pero sí dinamitan al principio el avance, y no está el grupo más grande del continente para perder tiempo precisamente.