Hoy conocemos que los expertos en Inteligencia Artificial (IA), ejecutivos de la industria, e incluso el pionero de la tecnología, Yoshua Bengio, firmaron una carta abierta pidiendo más regulación en torno a la creación de deepfakes. Entre los numerosos motivos, citaron riesgos potenciales para la sociedad. Para que tengas un breve contexto, los deepfakes permite reemplazar la cara de las personas en imágenes y vídeos. A estos videos incluso se le pueden reemplazar la voz para el máximo realismo. Todo ello gracias a los avances tecnológicos es muy real hoy en día.
Tales son los avances de la tecnología, que han hecho cada vez más indistinguibles del contenido creado por humanos. Debido a ello, nace una carta abierta, titulada como "Interrupción de la cadena de suministro de deepfake", en la cual se realizan recomendaciones sobre cómo abordar la regulación de estos deepfakes. Evidentemente se aborda penalizar desde deepfakes escabrosos con menores, hasta sanciones penales para cualquier persona que, a sabiendas, cree o facilite la difusión de deepfakes dañinos. También se exige a las empresas de inteligencia artificial que impidan que sus productos creen deepfakes dañinos .
La IA ha realizado un gran avance en muy poco tiempo y en todos los sentidos. Es evidente que los deepfakes han ido de la mano de estos avances. Debido a ello, más de 400 personas de diversos sectores, como el académico, el del espectáculo y el político, habían firmado la carta. Entre los más relevantes se encuentra Andy Weber, Ex Subsecretario de Defensa de EE.UU, Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica, dos ex presidentes de Estonia, investigadores de Google DeepMind y un investigador de OpenAI.
"Hoy en día, los deepfakes suelen estar relacionados con imágenes sexuales, fraudes o desinformación política. Dado que la IA avanza rápidamente y facilita la creación de deepfakes, se necesitan salvaguardias", afirmó el grupo de expertos en en la carta. Esta fue redactada por Andrew Critch, investigador de IA de la Universidad de Berkeley.
Los reguladores siempre han querido hacer que la IA no perjudique a la sociedad. Ha sido su prioridad desde que OpenAI presentara ChatGPT a finales de 2022. Tal fue la viralidad y la saturación de los servidores, que todas las compañías se unieron en una carrera por ofrecer servicios de IA. Estamos hablando de que en en casi un año y medio, hemos pasado de tener un ChatGPT en pañales, a tener a OpenAI Sora. Anunciada la semana pasada, es una IA capaz de generar vídeos en base al texto que le escribamos.
Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación. Las nuevas leyes deben:
- Tipificar plenamente como delito la pornografía infantil deepfake, incluso cuando sólo aparezcan niños ficticios.
- Establecer sanciones penales para todo aquel que, a sabiendas, cree o facilite la difusión de deepfakes perjudiciales.
- Exigir a los desarrolladores y distribuidores de software que impidan que sus productos audiovisuales creen deepfakes perjudiciales, y que sean considerados responsables si sus medidas preventivas se eluden con demasiada facilidad.
- Si se diseñan con sensatez, estas leyes podrían fomentar empresas socialmente responsables y no tendrían por qué ser excesivamente onerosas.
Los componentes de un PC como procesadores y tarjetas gráficas pueden consumir cientos de vatios… Leer más
Si estas en busca de un nuevo PC o tiene intención de cambiar algunas de… Leer más
Parece ser que todo va tomando forma para este año y el que viene. Si… Leer más
Nintendo, Sony y Microsoft son las principales compañías de consolas que llevan décadas de experiencia… Leer más
Aunque el hardware en GPU evoluciona, y normalmente lo hace antes que el software, lo… Leer más
El iPhone plegable ya no es un rumor lejano, y de hecho, da la sensación… Leer más
Esta web usa cookies.