ChatGPT genera malware mutante que es casi imposible de detectar

ChatGPT está en boca de todos, por ser una IA capaz de hacer tantas cosas y a pesar de ello, se siguen descubriendo nuevas funciones. Este chatbot IA desarrollado por OpenAI ha cambiado la forma en la que veíamos a la inteligencia artificial. ChatGPT se ha implementado en multitud de aplicaciones de Microsoft e incluso se ha probado en juegos como Minecraft. Tiene un gran potencial para hacer el bien, pero también para el mal, ya que ahora han revelado la capacidad de ChatGPT para crear malware mutante que es casi imposible de detectar y eliminar.

Cada vez más personas en todo el mundo utilizan casi a diario ChatGPT para ser una gran ayuda a la hora de realizar sus tareas y proyectos. La utilidad de este chatbot excede en gran medida a todo lo que habíamos conocido hasta el momento. Ya no hablamos de una IA que es capaz de convertir textos a imágenes como su única función, sino más bien responder todas nuestras preguntas y exigencias. ChatGPT nos responderá mediante texto la solución a nuestros problemas o preguntas que le hayamos planteado y esto nos da un mundo de posibilidades.

ChatGPT sería capaz de crear malware mutante y evitar ser detectado

IA chatbot ChatGPT peligro

Ya no tenemos esos chatbots que se limitan a conversar con nosotros como si fuesen humanos, siendo esto lo único que podían ofrecer. Ahora podemos pedirles que nos busquen un bug en nuestro código de programación o que resuelven un complejo problema. Podríamos hacer un listado de todas las cosas buenas que ChatGPT nos ha aportado, pero también hay que hacer mención a las malas. Lo primero que nos viene a la cabeza, es como ha logrado reemplazar a trabajadores en empresas, ocupando puestos de asistencia al cliente, traducción y creación de contenido.

Pero en esta ocasión estamos hablando de otro aspecto negativo que es realmente preocupante a nivel de seguridad. Resulta que la IA ChatGPT es capaz de crear malware mutante que es muy difícil de detener usando técnicas como el EDR (detección y respuesta de puntos finales). El EDR es un tipo de técnica de ciberseguridad empleada para atrapar malware y aunque esta funcione a día de hoy, ante un malware polimórfico que cambia lo tendría realmente difícil.

Han conseguido hacer dos pruebas con éxito usando ChatGPT

ChatGPT

Por el momento podemos respirar tranquilos de que ChatGPT no ha creado (aún) software malicioso que es casi imposible de detectar. Los creadores de esta IA se aseguraron de que esta evitara generar código malicioso y hablar de ciertos temas usando filtros. No obstante, se indica de que han conseguido evitar dichos filtros y por ello, la aparente restricción de ChatGPT ha sido derribada. Jeff Sims, ingeniero de seguridad de HYAS InfoSec, mostró un proyecto llamado BlackMamba, donde se podía observar el potencial de ChatGPT para crear malware mutante.

En concreto, se trataba de una aplicación tipo keylogger polimórfico que envía peticiones a ChatGPT con una API cada vez que se ejecuta. Tal y como dice Sims, esto permite evadir las técnicas de detección tradicionales y no logran identificarlo como malware. Otra empresa de ciberseguridad denominada CyberArk, mostró como ChatGPT podía modificar scripts y evitaba ser detectado. Son solo dos pruebas de concepto, pero es cuestión de tiempo que logren hacerlo funcional.