Aunque hace ya casi un mes que el descubrimiento fue publicado
como tal y lo tratamos, es ahora cuando la revisión por pares se ha
validado y dado este como bueno, pero no por ello es menos
importante. El profesor asociado de Ingeniería Eléctrica e
Informática de la UC RIverside, Hung-Wei
Tseng, ha presentado lo que él mismo ha definido
como "un cambio de paradigma en la arquitectura
informática". El estudio titulado como MultiThreading Simultáneo y
heterogéneo ha sentado un precedente en la industria por su
impacto, y por ello, ya se ha creado el término SHMT para
el algoritmo, el cual ha llegado para cambiar el
rendimiento y la eficiencia de cualquier dispositivo informático
actual.
Y no, Tseng no exagera ni un poco, aunque lógicamente ahora hay
que seguir evolucionando la idea, desarrollarla e implementarla,
pero su estudio es el paso previo que abre el camino. La idea que
usa el profesor es realmente simple y seguro que desde los motores
de los juegos, hasta los SO tienen líneas de investigación en estos
momentos intentando hacer algo similar y efectivo a nivel de
software.
SHMT, el algoritmo y técnica de implementación que hará de los
dispositivos electrónicos sistemas heterogéneos
Simultaneous and Heterogeneous Multithreading, o
SHMT, un término asociado a un algoritmo que seguro
escucharemos bastante en pocos años y que, aunque se termine
llamando de distintas formas según el desarrollador, tendrá de base
el estudio de Tseng.
La tecnología que ha desarrollado y probado (reconocimiento de
pares) se basa en el conjunto de todas las unidades de
procesamiento que tenga un sistema. En el caso del PC, GPU,
CPU y NPU para ser específicos. Tseng comentó en su
investigación lo obvio: todas procesan la información por separado,
y tienen que moverla de una unidad de procesamiento a la
siguiente.
Por lo tanto, la más lenta siempre termina siendo el cuello de
botella, lo cual rompe con el progreso de las más rápidas y,
además, genera un consumo de energía muy alto. Por tanto,
SHMT crea una plataforma con todas ellas a modo de sistema
integrado que utiliza simultáneamente (en el caso del
experimento que llevó a cabo), un SoC Arm, una GPU NVIDIA y un
acelerador a base de Tensor Cores.
Un aumento del rendimiento impresionante y mucha mejor
eficiencia
Con estas unidades funcionando al unísono y de forma
heterogénea, Tseng, junto con el estudiante graduado en ciencias de
la computación de la UCR, Kuan-Chieh Hsu, lograron
una aceleración de la información de nada menos que 1,96 veces,
mientras que el consumo de energía se redujo un 51% frente a una
etapa clásica de funcionamiento de cada unidad para ofrecer el
mismo resultado al final.
"No es necesario agregar nuevos procesadores porque ya los
tienes", afirmó Tseng.
Viendo estos datos breves a modo de conclusión del estudio, se
puede decir sin riesgo ni temor alguno que el uso simultáneo de
todo procesador o unidad de procesamiento de nuestro PC, móvil,
portátil, TV o componente electrónico podría reducir, como bien
dice el profesor, el coste del hardware informático,
reducir las emisiones de carbono y algo más interesante enfocado a
los centros de datos: menos consumo de agua.
Igualmente, se necesitan responder una cantidad increíble de
preguntas sobre cómo implementar esto a nivel de cualquier sistema,
lo que llevaría, como decíamos al principio, a un cambio de
paradigma en la forma de entender, programar y ejecutar cada
subproceso dentro de las unidades de procesamiento. Desde Windows,
pasando por Linux, iOS o Android, todo tendría que girar bastantes
grados para poder ser más óptimos de cara a ganar rendimiento y
reducir el consumo, y con ello, también el calor que generan.