Ex-CEO de Google señala los riesgos de las relaciones personales de los jóvenes con una IA: «No están preparados para soportarlo»

La idea de tener una relación romántica con una Inteligencia Artificial, un concepto recurrente en la ciencia ficción, está dejando de ser solo una fantasía. Sin embargo, esta tendencia plantea preocupaciones. Eric Schmidt, ex-CEO de Google, advierte sobre los riesgos sociales de crear "parejas perfectas" mediante la IA, señalando que podría fomentar comportamientos obsesivos y agravar problemas como la soledad. ¿Están los jóvenes preparados para lo que viene con este problema de las "novia IA"?

En una conversación en The Prof G Show with Scott Galloway, desde Techspot, Schmidt expuso cómo la tecnología permite a los jóvenes diseñar compañeros virtuales ideales, visual y emocionalmente perfectos, y advirtió sobre las consecuencias de este fenómeno. "Este es un buen ejemplo de un problema inesperado de la tecnología existente", afirmó. Según él, los hombres jóvenes están particularmente expuestos, ya que estas relaciones virtuales pueden ocupar un lugar central en sus vidas y alterar su forma de pensar.

El problema y riesgo de las relaciones entre los jóvenes y una IA

Novia IA

El exjefe de Google relacionó esta problemática con los desafíos que enfrentan los jóvenes hoy en día. Argumentó que las oportunidades tradicionales se han reducido, mientras que las mujeres tienden a alcanzar mayores logros educativos. Esto, combinado con el impacto de los algoritmos de las redes sociales, conduce a que algunos busquen refugio en el mundo digital, lo que puede desembocar en conductas radicalizadas o aislamiento:

"En muchos casos, el camino al éxito para los hombres jóvenes se ha vuelto, digamos, más difícil porque no tienen el mismo nivel educativo que las mujeres de hoy".

Ejemplos de estos peligros ya han salido a la luz. Un caso reciente involucró a un adolescente que se quitó la vida tras desarrollar una obsesión con un chatbot de IA de Juego de Tronos, concretamente, con Daenerys Targaryen.

Según la madre del joven, quien presentó una demanda contra Character.ai, su hijo pasaba horas interactuando con esta IA, descuidando sus relaciones reales. Para Schmidt, la vulnerabilidad de los adolescentes es especialmente preocupante:

"Si pones a un niño de 12 o 13 años frente a estas cosas, tiene acceso a todo lo malo y a todo lo bueno del mundo. Y no está preparado para soportarlo".

Leyes y regulaciones a cambiar para poder abordar las responsabilidades en casos críticos, ¿es suficiente?

Novias IA falsas estafa

Recomienda que los padres supervisen la actividad online de sus hijos, aunque reconoce que el control absoluto no es posible. Además, Schmidt subrayó la necesidad de reformar leyes como la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las empresas tecnológicas de ser responsabilizadas por el contenido de los usuarios.

Considera que es crucial modificar esta regulación para garantizar que haya consecuencias en casos graves:

"Cuando alguien resulte perjudicado por esta tecnología, necesitamos tener una solución para evitar más daños".

No obstante, el panorama legislativo parece poco prometedor. Schmidt expresó dudas sobre una reforma en el corto plazo, mientras que figuras como Brendan Carr, de la FTC, buscan límites más estrictos a la inmunidad legal de las empresas y nuevas normas que den mayor control a los usuarios sobre los filtros y verificadores de datos. ¿Cuánta responsabilidad tienen los padres? ¿Cuánta las empresas que ofrecen estos "servicios de IA"?

¿Hay que empezar a educar a los niños para que vuelvan a los métodos tradicionales de interacción con el género contrario? Un debate interesante donde la IA tendrá mucho que decir, desde niños, jóvenes hasta adultos, porque los riesgos en estas relaciones son iguales para todos, pero no se enfrentan de la misma manera por motivos obvios.