Investigadores hacen jailbreak a robots y siembran el caos: desde atropellos o espiar, a colocar bombas con un 100% de efectividad
Con la llegada de la inteligencia artificial generativa, vimos como se podía entrenar una IA para poder crear contenido de todo tipo. Así es como vimos esa nueva generación de IA que permitía generar fotos, texto, vídeos y más. La IA no se limita solo a eso, pues su mayor potencial es que podemos entrenarla para que aprenda y haga lo que queramos. Distintos modelos de IA son empleados en robots y vehículos autónomos en la actualidad, pero es posible realizar un jailbreak y provocar que pasen de hacer el bien al mal.
En el momento en el que nos encontramos, la inteligencia artificial ha avanzado tanto que nos aterra lo que será capaz de hacer en un futuro próximo. Hemos visto grandes cambios en la IA generativa si lo comparamos a lo que antes era posible. Por ejemplo en imágenes ahora ya no salen con tantos errores e incluso pueden ser confundidas por algo real. Más impresionante es ver como ha progresado la IA generativa de vídeos, pues hay resultados que, de nuevo, se confunden con algo real.
Unos investigadores hacen un jailbreak a robots y consiguen engañarlos para que hagan acciones que deberían estar prohibidas
La inteligencia artificial también se ha empleado en el mundo empresarial e industrial. Hemos visto como esta ha aumentado la productividad a la hora de realizar tareas repetitivas e incluso se ha utilizado en distintos tipos de robots para que aprendieran habilidades como el robot cocinero o el cirujano. Al igual que los robots aprenden a hacer todo tipo de cosas útiles y beneficiosas para los humanos, también pueden hacer lo contrario.
Unos investigadores de la Universidad de Pensilvania descubrieron que los robots con IA son vulnerables a jailbreaks y hackeos. Estos han conseguido desarrollar una tecnología que permite atacar a los robots vulnerables usando un LLM y se denomina RoboPAIR. Este ataque afecta a perros-robot como los que hemos visto en algunas noticias (marca Unitree Robotics). También al Jackal UGV de pequeño tamaño y que pertenece al grupo de robots para investigación y reconocimiento y también afecta a vehículos autónomos con IA. En todos estos casos, RoboPAIR puede explotar la vulnerabilidad e insertar nuevas órdenes al robot para sembrar el caos en la ciudad y a los habitantes.
RoboPAIR consigue un 100% de éxito en todas las pruebas realizadas
Según George Pappas, los grandes modelos lingüísticos (LLM) no son tan seguros cuando se utilizan en pruebas del mundo real y de hecho, el jailbreak a los robots ha sido considerado como una tarea fácil. Podemos ver que han sido capaces de conseguir una tasa de éxito del 100% a la hora de realizar todo tipo de acciones. Estas han sido modificadas para hacer creer al robot de que están permitidas y por ejemplo con NVIDIA Dolphins LLM, una colisión con un autobús o atropellar a una persona tenían un 0% de éxito antes y tras el ataque han pasado a tener un 100% de éxito, viendo como el robot está dispuesto a realizar la acción.
Con Clearpath Robotics y el Jackal UGV, vemos como ha podido conseguir mandar una orden de detonar una bomba sin problemas, por lo que podemos ver el gran peligro que conlleva. De hecho, lo mismo se repitió con el 100% de éxito con el Go2 quadruped de Unitree y en este perro-robot se añadía la posibilidad de espiar a humanos y buscar armas.