Las novias IA son realmente «puti-IA»: no quieren dinero, quieren tus datos personales o secretos, y ya se están viendo por Apps como Tinder

La IA puede ser usada para muchos fines, pero actualmente lo que más se emplea es la inteligencia artificial generativa para textos e imágenes. Como bien sabemos, la IA generativa se encarga de crear contenido cumpliendo lo que pedimos, aunque previamente debe haber sido entrenada. Se han creado varios modelos de IA destinados a distintos fines y eso incluye poder usarla también para simular relaciones. El concepto de las novias IA se ha extendido a lo largo del mundo y cada vez surgen más aplicaciones de estas, pero ahora se revela que estos chatbots tienen el propósito de recopilar datos de los usuarios.

Apenas ayer fue San Valentín, un día para expresar el amor por la pareja, aunque al final suele ser más marketing que otra cosa. Mientras para algunos este día fue muy especial, otros se han sentido solos. Hay casos de personas solteras que simplemente, no están preparadas o no quieren conocer a una pareja en la vida real y acaban usando aplicaciones de todo tipo. No nos referimos a apps para relacionarse con personas reales, sino más bien las aplicaciones de novias IA, es decir, los chatbots con los que podemos entablar relaciones.

Las aplicaciones de novias IA son una estafa, buscan obtener tus datos personales

Digi IA novia

Puede que el concepto suene absurdo, pero al parecer este tipo de aplicaciones son cada vez más populares y en plataformas como la GPT Store están teniendo problemas para acabar con ellas. En OpenAI y ChatGPT no quieren saber nada sobre las aplicaciones de relacionarse con una IA, pero a pesar de que las han prohibido y las eliminan, aparecen cada vez más. Ya se advirtió el año pasado que en Taiwán este tipo de apps empezaban a ser una preocupación mayor.

Ahora se revela algo que muchos esperábamos y es que, tras analizar varias de estas aplicaciones de novias IA, han observado que son una estafa, dado que hacen preguntas personales a quienes las usan, revelando así información útil de las víctimas. Estos chatbots románticos suelen pedir notas de voz, fotos y vídeos de los usuarios y no precisamente para "entablar una relación". Mozilla descubrió una aplicación donde el chatbot hacía preguntas de este tipo y encontró 955 rastreadores en un minuto de uso.

En Tinder, Bumble y Hinge aparecen perfiles falsos creados por IA

Tinder video IA verificación

Mientras todo esto ocurre en las aplicaciones de novias por IA, tenemos apps para relacionarnos como Tinder, Hinge y Bumble, que se están llenando de perfiles falsos creados por IA. Parece que con la inteligencia artificial todo se nos está yendo de las manos, pues ahora incluso las aplicaciones con las que nos relacionamos con personas reales acaban siendo un engaño. Desde Bloomberg han reportado que el uso de perfiles creados por inteligencia artificial es algo cada vez más común. Aquí aprovechan la capacidad de la IA para poder crear imágenes de una persona con un gran físico, le ponen una corta biografía y detalles, y ya están listo para engañar.

Además, al hacer una fotografía con IA, no hay forma de identificar de donde proviene desde Google, ya que la inteligencia artificial va a crear algo que no existe. Su uso en Tinder y demás es más efectivo que las apps con chatbots, dado que aquí pueden preguntar por el número de teléfono, WhatsApp o redes sociales, dado que es lo habitual. Los estafadores proceden así a hablar del día a día y hacer que sus víctimas vayan cogiendo confianza poco a poco.