Europa avisa sobre ChatGPT: la IA ayuda en el fraude, robo, hackeo, terrorismo y abuso sexual
ChatGPT se ha convertido en cuestión de meses en una herramienta imprescindible para millones de personas. Esta IA nos da respuestas a cualquier pregunta que tengamos, haciendo que sea útil para resolver todo tipo de problemas. El problema es que ChatGPT es un arma de doble filo, ya que ayuda a todos, incluidos a todos aquellas personas que quieren cometer delitos.
A día de hoy, el uso de la inteligencia artificial en varios aspectos de nuestra vida es completamente normal. Ya solo haciendo preguntas a Siri o Google Assistant estamos aprovechando esta tecnología. Con la implementación de ChatGPT en cada vez más aplicaciones, vemos como esta IA y su uso aumenta con el paso del tiempo. Ya hemos visto como Microsoft realizó una implementación en Bing, la cual fue todo un éxito. El problema es que como todo, cuanto la competencia se enteró, empezaron a aprovecharse otros motores de búsqueda. Microsoft ya lo advirtió hace unos días, avisando que si sus rivales se aprovechan de la IA de Bing, les restringirá el acceso.
La Europol advierte que ChatGPT aumenta el número de delitos
Google y otros motores de búsqueda como Yahoo, DuckDuckGo, Yandex y otros están perdiendo popularidad frente a Bing. El hecho de que este último disponga de una IA similar a ChatGPT ha demostrado ser una opción muy superior. Y es que, desde que ChatGPT apareció en noviembre de 2022, pronto se convirtió en uno de los temas más hablados en todo el mundo. Decenas de millones de personas entran mensualmente para utilizar sus servicios, donde esta IA nos responde sin importar que le preguntemos.
Esta libertad es una de sus grandes ventajas pero a su vez un gran inconveniente, pues pueden obligar a la inteligencia artificial a cumplir todas las demandas. Aquí es donde la gente puede preguntar de todo, incluso como aprender a hackear o estafar. De hecho, las agencias de ciberseguridad del Reino Unido ya advirtieron del peligro de usar IA, las cuales ayudaban a los hackers a crear malware. Ahora es la Europol la que advierte sobre el peligro de la IA ChatGPT y como se emplea esta herramienta para cometer delitos.
Han conseguido hacer que ChatGPT revele información peligrosa
Europa ya ha dado la alarma sobre el uso de esta IA para fines delictivos y la policía asegura que esto empezó a las pocas semanas tras el lanzamiento de ChatGPT. Esta IA es capaz de negarse a cumplir ciertas órdenes que considera peligrosas, sin embargo, los usuarios han encontrado una forma de eludir el filtrado de OpenAI. Según informa la Europol, hay usuarios que han conseguido hacer que ChatGPT les diga como crear una bomba o droga.
Aquí es donde la policía europea avisa que los usuarios pueden pedir que ChatGPT les ayude a cometer delitos y ahí es donde la IA es realmente útil. Y es que, un delincuente puede no tener experiencia en un acto delictivo concreto, pero con la IA consigue toda la información necesaria y pasos a seguir. Aquí la Europol ha indicado un gran número de ejemplos, desde terrorismo, ciberdelincuencia o abuso sexual.
Como toda esa información está disponible en Internet, ChatGPT se encarga de filtrarla, mostrarla y dar una explicación sobre que hacer. Al igual que dijo el Reino Unido hace unas semanas, la policía considera que la IA es capaz de escribir código malicioso con facilidad. Incluso una persona sin experiencia delictiva puede empezar a realizar delitos gracias a la ayuda de ChatGPT y la Europol cree que la actividad criminal aumentará más aún.