18 países firman el primer acuerdo internacional para hacer que la IA sea «segura por diseño»
La Inteligencia Artificial sigue de máxima actualidad. La UE debe cerrar la Ley para la IA antes de terminar el año, EE.UU. sigue inmerso en acotar la suya, Australia baraja un mix de ambas cuando estén terminadas y China dice que implementará una Ley... Pero será cuando su sector se expanda más. Entre tanto, para calibrar dichas leyes y fijar un mínimo a nivel internacional 18 países se han unido en lo que se ha calificado como el primer acuerdo internacional sobre cómo mantener la IA a salvo de "actores deshonestos". ¿Qué implica esto? Pues que serán los gobiernos los que presionen a las empresas para crear unas IA "seguras por diseño" (secure by design).
Estados Unidos y Reino Unido han sido los principales promotores de este acuerdo que ha atraído a 18 países, entre los que se encuentran Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria o Singapur. El marco es de seguridad, concretamente, de ciberseguridad, algo realmente interesante de tratar, puesto que no solamente vale con crear una IA, sino que debe de no caer en malas manos.
18 países firman el primer acuerdo internacional para que la IA sea segura por diseño
El documento figura con nada menos que 20 páginas, pocas podríamos pensar en un principio, pero la realidad es que son bastantes si tenemos en cuenta lo generalista del acuerdo. Además, no es vinculante como tal, simplemente es la primera toma de contacto para encauzar un problema que ya es un quebradero de cabeza para todos los gobiernos: el cibercrimen.
Este va a evolucionar a ciberrobo o cibercontrol de las Inteligencias Artificiales de las empresas con sede en cada país, o lo que es lo mismo, los atacantes no se están centrando tanto en objetivos concretos de gobiernos o empresas, sino en capturar o poder copiar las IA. Por ello se habló de "actores deshonestos", y el acuerdo fija una premisa general muy clara: hacer que las empresas que diseñan y utilizan una o varias IA las desarrollen y trabajen de manera que clientes y público que las usen estén a salvo del uso indebido de las mismas.
El desarrollo de la IA comienza a tomar forma por parte de los gobiernos
Mientras que EE.UU., Europa y China corren como locos por lanzar la mejor IA en sus diferentes segmentos, la política y las leyes van, una vez más, por detrás. Que 18 países hayan acordado esto es un paso, porque se fijan las recomendaciones generales básicas, como:
- Monitorización de las IA para detectar abusos.
- Proteger los datos frente a las manipulaciones.
- Examinar a los proveedores de software.
- Reducir los costes de mantenimiento y desarrollo.
- Mejorar los diseños de la seguridad.
Y así una cantidad de medidas que se debatieron vigorosamente. La directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU., Jen Easterly, dijo que:
"Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deberían consistir sólo en características interesantes y en qué tan rápido podemos llevarlas al mercado o cómo podemos competir para reducir los costos. Este es un acuerdo que trata sobre lo más importante que hay que hacer en la fase de diseño: la seguridad".
Para conseguirlo, hay medidas como solo publicar los modelos cuando las pruebas de seguridad hayan sido satisfactorias, pero en cambio, se deja en el tintero algo que parece que será abordado en leyes de cada país, como el uso inapropiado de la IA o la recopilación de los datos de los modelos. Esto ya es una realidad en parte en Francia, Alemania e Italia, los cuales firmaron otro acuerdo sobre cómo debería regularse la IA: "mediante códigos de conducta".