Expertos, y hasta el pionero de la IA, insta a una mayor regulación de los deepfakes
Hoy conocemos que los expertos en Inteligencia Artificial (IA), ejecutivos de la industria, e incluso el pionero de la tecnología, Yoshua Bengio, firmaron una carta abierta pidiendo más regulación en torno a la creación de deepfakes. Entre los numerosos motivos, citaron riesgos potenciales para la sociedad. Para que tengas un breve contexto, los deepfakes permite reemplazar la cara de las personas en imágenes y vídeos. A estos videos incluso se le pueden reemplazar la voz para el máximo realismo. Todo ello gracias a los avances tecnológicos es muy real hoy en día.
Tales son los avances de la tecnología, que han hecho cada vez más indistinguibles del contenido creado por humanos. Debido a ello, nace una carta abierta, titulada como "Interrupción de la cadena de suministro de deepfake", en la cual se realizan recomendaciones sobre cómo abordar la regulación de estos deepfakes. Evidentemente se aborda penalizar desde deepfakes escabrosos con menores, hasta sanciones penales para cualquier persona que, a sabiendas, cree o facilite la difusión de deepfakes dañinos. También se exige a las empresas de inteligencia artificial que impidan que sus productos creen deepfakes dañinos.
Quieren la regulación de los deepfakes: se usan para el fraude, la desinformación e imágenes sexuales
La IA ha realizado un gran avance en muy poco tiempo y en todos los sentidos. Es evidente que los deepfakes han ido de la mano de estos avances. Debido a ello, más de 400 personas de diversos sectores, como el académico, el del espectáculo y el político, habían firmado la carta. Entre los más relevantes se encuentra Andy Weber, Ex Subsecretario de Defensa de EE.UU, Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica, dos ex presidentes de Estonia, investigadores de Google DeepMind y un investigador de OpenAI.
"Hoy en día, los deepfakes suelen estar relacionados con imágenes sexuales, fraudes o desinformación política. Dado que la IA avanza rápidamente y facilita la creación de deepfakes, se necesitan salvaguardias", afirmó el grupo de expertos en en la carta. Esta fue redactada por Andrew Critch, investigador de IA de la Universidad de Berkeley.
Los reguladores siempre han querido hacer que la IA no perjudique a la sociedad. Ha sido su prioridad desde que OpenAI presentara ChatGPT a finales de 2022. Tal fue la viralidad y la saturación de los servidores, que todas las compañías se unieron en una carrera por ofrecer servicios de IA. Estamos hablando de que en en casi un año y medio, hemos pasado de tener un ChatGPT en pañales, a tener a OpenAI Sora. Anunciada la semana pasada, es una IA capaz de generar vídeos en base al texto que le escribamos.
Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación. Las nuevas leyes deben:
- Tipificar plenamente como delito la pornografía infantil deepfake, incluso cuando sólo aparezcan niños ficticios.
- Establecer sanciones penales para todo aquel que, a sabiendas, cree o facilite la difusión de deepfakes perjudiciales.
- Exigir a los desarrolladores y distribuidores de software que impidan que sus productos audiovisuales creen deepfakes perjudiciales, y que sean considerados responsables si sus medidas preventivas se eluden con demasiada facilidad.
- Si se diseñan con sensatez, estas leyes podrían fomentar empresas socialmente responsables y no tendrían por qué ser excesivamente onerosas.