Panmesia presenta su protocolo CXL que permite añadir memoria externa a las GPU para IA usando DRAM o SSD a través de PCIe
Las primeras tarjetas gráficas llegaron hace décadas, donde los primeros modelos se encargaban de permitir jugar con gráficos 3D a videojuegos. Unos años después vimos que las GPU empezaban a tener más importancia en los PC, pues incluían cientos de núcleos que servían para acelerar todo tipo de tareas. En la actualidad seguimos viéndolas de esa forma, solo que cada vez son más potentes y tienen una mayor capacidad para hacer todo tipo de tareas. Ahora bien, para poder acelerar la IA, las GPU requieren tener mucha potencia y además memoria, la cual por desgracia está limitada a lo que nos ofrecen. Esto va a cambiar próximamente, pues Panmesia ha presentado su protocolo CXL llamado CXL-Opt, el cual permite añadir memoria a las GPU para IA mediante PCIe, pudiendo aprovechar la memoria DRAM o incluso los SSD con una latencia mínima.
Cuando compramos un nuevo componente para nuestro PC, sabemos que nos va a tocar tener que informarnos y mirar lo que más nos conviene antes de dar el paso. Actualizar a una nueva CPU, GPU, cambiar la cantidad de RAM, la fuente o la placa, son pasos que hay que tomar pensando siempre con lógica y dependiendo de nuestras necesidades y para lo que queremos usar el PC. En el caso de que nuestro ordenador sea para tareas sencillas, ofimática y multimedia, cabe decir que probablemente no nos aprovecharemos de una GPU dedicada y no hará falta una potente CPU ni RAM. Por otro lado, si buscamos algo donde jugar a todo al máximo y resolución 4K, nos va a tocar gastar mucho dinero en una gráfica sobre todo.
Panmesia presenta un nuevo protocolo CXL para poder añadir memoria externa a las GPU para IA
Los PC de la mayoría de personas van a ir ubicados a jugar y/o para trabajar y estudiar, pero hay mucho más que eso, pues la industria y las empresas están enfocadas en un tema más importante, la inteligencia artificial. Como ya sabrás, para poder entrenar nuevos modelos de IA se requiere tener una enorme potencia que proporcionan GPU como las NVIDIA A100 y H100, las cuales han tenido tanta demanda que hay que esperar semanas para hacerse con ellas. En esta era de auge de la IA, las compañías adquieren enormes cantidades de estas GPU para poder acelerar las tareas de inteligencia artificial, pero se dan cuenta de que están limitados por factores como la memoria.
Aunque tengamos memoria HBM de última generación que es muy rápida, al final nos tenemos que conformar con la que incluya la propia GPU. Esto va a cambiar pronto, pues Panmesia, en colaboración con el instituto surcoreano KAIST, ha presentado un nuevo protocolo CXL que permite a las GPU añadir memoria adicional. Esta característica ya la vimos con la tarjeta CMM-H TM de Samsung, la cual podía usar memoria DRAM y NAND Flash mediante CXL para que pudiera aprovecharla la CPU y los aceleradores.
La solución de Panmesia tiene una latencia de solo dos dígitos de nanosegundo
En el caso de las GPU para IA tradicionales, no poseen la capacidad de conectarse a CXL y poder ampliar la memoria y aunque existen soluciones como la memoria virtual unificada (UVM), estas son muy lentas. Por tanto, Panmesia ha creado su protocolo CXL como solución diseñando un chip "Root Complex" compatible con CXL 3.1. Con este dispone de varios puertos para conectar la GPU a la memoria externa usando PCIe y el descodificador HDM. Al igual que Samsung y Meta desarrollaron sus propios CXL-Proto, en el caso de Panmesia ha acabado denominando a su sistema como CXL-Opt.
La diferencia es que mientras el resto tenían latencias de tres dígitos (250 ns), Panmesia asegura que su protocolo CXL tiene dos dígitos de nanosegundo. Además de eso, el tiempo de ejecución de CXL-Opt es inferior a UVM, logrando un rendimiento IPC 3,22 veces superior. Con esta nueva IP CXL, Panmesia espera poder hacer que las GPU para IA tengan acceso a memoria adicional usando DRAM o incluso SSD por PCIe.