FBI avisa: estafadores usan la IA para hacer deepfakes de vídeos sexuales y amenazan con compartirlos
La inteligencia artificial ya forma parte de nuestras vidas, queramos o no, pues esta tiene sus partes buenas y malas. Precisamente su capacidad de crear todo tipo de contenido es su mejor aliciente y su gran inconveniente. Esto se debe a que muchos usan la IA para estafar y sacar beneficios gracias a sus capacidades. De hecho, el FBI ya ha advertido que cada vez se usan más deepfakes generados por IA que muestran a personas reales practicando sexo falso y con esto hacen estafas de sextorsión.
La inteligencia artificial puede emplearse en multitud de situaciones para ayudarnos a realizar nuestras tareas o directamente que nos la haga la IA. Un ejemplo que todos conocemos es ChatGPT, el cual le podemos pedir que nos resuelta los problemas que tenemos, sea a la hora de escribir código de programación, un email o un ejercicio de clase. Si lo que buscamos es crear imágenes, Midjourney y Stable Diffusion son las mejores IA para ello. Aquí no acaban los usos de las IA, pues también podemos pedir que compongan música o que hagan deepfakes, es decir, humanos falsos con la cara de una persona real.
FBI advierte: hay estafadores que usan IA para hacer deepfakes de contenido sexual
Vamos a hablar de los deepfakes, pues estas falsificaciones de humanos por IA llevan existiendo desde hace ya bastantes años. Todos hemos visto en más de una ocasión como se ha hecho un controvertido vídeo que involucra a una celebridad, la cual niega todo lo ocurrido. Suelen ser vídeos que tienen la cara de esta persona famosa, pero en las expresiones se nota de que es totalmente falso. Si bien es cierto que los deepfakes han podido identificarse fácilmente en el pasado, la tecnología ha avanzado y las IA son capaces de conseguir resultados más realistas.
De hecho, la gigantesca compañía de Tencent Cloud quiso aprovechar esto y montó un servicio de deepfakes, en el cual pagaremos tan solo 145 dólares por una copia digital nuestra, con voz y todo. Ahora que entendemos hasta donde han llegado los deepfakes por IA, podemos afrontar la realidad que nos muestra el FBI, asegurando que se han usado para sextorsión. Han logrado engañar así a multitud de víctimas con vídeos de contenido sexual donde salen ellos mismos.
Amenazan a las víctimas de la sextorsión con compartir el contenido en redes
La sextorsión, como su nombre indica, es una combinación de extorsionar usando contenido sexual a su favor. Ejemplos de esto es que nos muestren una fotografía o vídeo explicito y amenazarnos con que van a compartirlo con nuestros familiares, amigos o jefes. De hecho, hay ocasiones donde los estafadores que se dedican a esto, tienen en posesión imágenes reales de la víctima. En este caso, más bien son deepfakes generados por IA y al parecer deben ser bastante realistas, ya que hay varios afectados por la sextorsión y han llamado la atención del FBI.
La entidad americana ha advertido de que estas fotos y vídeos falsos se están publicando en redes sociales y sitios web pornográficos. Esto tiene como objetivo meter más presión a las víctimas y que estas paguen un rescate y así evitar una mayor proliferación del contenido.