Las Agencias de Inteligencia advierten sobre el peligro de la IA de ChatGPT

Si hay algo que podemos decir que ha revolucionado Internet estos últimos meses es el chatbot IA ChatGPT. Este ya es usado por millones de personas cada día y su número aumenta desde que Microsoft anunció la implementación de esta IA en Bing. Sin embargo, hay que tener cuidado, pues la agencia de ciberseguridad del Reino Unido (NCSC) ha advertido sobre el peligro de utilizar chatbot IA como ChatGPT.

Hace un tiempo cuando hablábamos de IA casi todo el mundo hacía referencia a Midjourney, Dall-E o Stable Diffusion como ejemplos. Estas han sido empleadas para generar imágenes a una calidad muy alta y en apenas unos segundos. Si bien es cierto que no han parado de evolucionar y en concreto, Stable Difussion está teniendo grandes novedades últimamente, hay otra IA que llama aún más la atención. Esta es ChatGPT, el chatbot que ha revolucionado todo el sector con su capacidad de resolver cualquier duda o pregunta que tengamos.

UK advierte sobre el peligro de utilizar IA como ChatGPT

Datos filtrados sensibles ChatGPT

En el pasado los chatbot IA han sido conocidos como una inteligencia artificial con la que podemos hablar y tener una conversación semejante a la de los humanos. Sin embargo, con ChatGPT y el modelo GPT-3 (y superiores) se ha logrado darle una funcionalidad aún más útil al implementarlo en motores de búsqueda como Bing. En vez de perder el tiempo buscando entre decenas de páginas tras una búsqueda de Google, podemos preguntar exactamente lo que queremos y recibir información específica. Si bien la libertas de escribir a una IA con total libertad es una ventaja, según el centro de ciberseguridad de Reino Unido hay que tener cuidado.

El NCSC ha advertido del peligro que hay al hablar de ciertos temas con un chatbot IA como ChatGPT. Según este, todo lo que escribimos y las preguntas que hacemos son visibles para el desarrollador. Por ejemplo, en el caso de ChatGPT este sería OpenAI. Además, esta información que recolectan de nuestras búsquedas se emplea a su vez para crear nuevas versiones del chatbot. Aquí advierten que las preguntas que contengan información sensible sobre temas de salud, relaciones o trabajo puede suponer un problema.

Las IA como ChatGPT son empleadas por hackers para crear malware

Hacker IA ChatGPT

Esta advertencia ya la han aplicado varias empresas, incluidas compañías tan importantes como Amazon y JPMorgan. Ambas han aconsejado a sus empleados que no utilicen ChatGPT para evitar que se filtre información confidencial. Otro de los peligros de hablar con chatbot IA como ChatGPT es que pueda filtrarse información sobre los trabajadores y acabe siendo hackeada. También existe la posibilidad de que el desarrollador del chatbot decida dejar el cargo a otra compañía menos fiable.

Aquí es donde empieza a plantear situaciones donde nuestra privacidad podría verse completamente expuesta al hablar con el ChatGPT y otras IA. Pero ahí no acaba todo, ya que el NCSC continua con sus advertencias indicando que ChatGPT puede ser usado para el mal. Según este, la IA puede ayudar a los ciberdelincuentes a desarrollar programas de malware y de hecho, esto ya se confirmó. Resulta que en enero, los investigadores de seguridad descubrieron que ChatGPT era empleado en los foros de hackers como herramienta educativa.