La UE aprueba la Ley de IA: estas son las prohibiciones, vigilancia y obligaciones

Ya hablamos de proyecto de la Ley IA de la Unión Europea, pionera en el mundo, que pretendía regular todo lo relacionado con la Inteligencia Artificial dados los riesgos que conlleva. Pues bien, en el día de ayer y tras un largo debate por parte del Parlamento de la UE, esta Ley ha quedado aprobada finalmente, lo que implica una serie de prohibiciones, vigilancia y obligaciones a cumplir por parte tanto de empresas, como de gobiernos, y en algunos casos, de los usuarios. Estas son todas las novedades de la Ley de IA en la UE.

Una toma de decisiones complicada donde, por suerte, la mayoría estaba de acuerdo con las medidas primarias que se estaban tomando. La votación final a favor, en contra o abstención refleja que había un consenso bastante amplio, por no decir mayoritario y por mucho, de todo lo relacionado con esta polémica Ley. No hay más que ver el recuento: 499 votos a favor, 28 en contra y 93 abstenciones.

Ley de IA de la UE aprobada, una base sobre la que trabajar en el futuro

Ley-IA-de-la-UE

Como toda Ley que se hace en tiempo récord, solo se ofrece una base de trabajo, el mínimo imprescindible para que se pueda expandir toda la regulación en su conjunto. Como no es una Ley final, sino un proyecto de Ley que tiene que ser muy ampliado, el Consejo de la UE y la Comisión tienen que negociar con los principales actores en representación de los usuarios las reglas a definir, las virtudes, los defectos y los límites, algo realmente complejo en un sector que parece cambiar cada pocos meses.

Por ello, se habla de prohibiciones, vigilancia y obligaciones como nuevos puntos añadidos a dicha Ley, que va tomando forma, y que trataremos ahora. Comenzando por las prohibiciones, se han añadido los sistemas biométricos, es decir, aquellos que pueden identificar a las personas. Se ha hablado de espacios públicos en tiempo real, no se ha dicho nada del interior de las empresas como tal.

La regulación y prohibición expresa indica que no se puede acceder a estos datos sin una orden judicial de por medio, y además, haciendo acopio de lo que hemos vivido en materias como la identidad, la raza o el género, tampoco se dejará que las IA clasifiquen a las personas por estos parámetros. Además, y de forma interesante, tampoco se permite la clasificación por orientación política. Todo esto está regulado dentro de lo que se conoce ya como el Procedimiento Policial Predictivo, muy a lo Minority Report, donde no se permite crear una base de datos con reconocimiento facial, por ejemplo.

La peligrosidad de cada IA será valorada, como ya vimos y recordamos, en cuatro niveles, por lo que dependiendo de cómo funcionen se catalogarán y tendrán más o menos restricciones. Las redes sociales estarían en el punto más bajo ahora mismo, las IA como ChatGPT en el punto más alto por su falta de privacidad, por ejemplo.

Vigilancia y obligaciones

Riesgos-IA-Ley-UE

La UE no va a permitir que una o varias empresas trabajen en IA opacas, es decir, algoritmos entrenados sin saber cómo funcionan. No basta con ofrecer datos y conclusiones, la UE quiere saber cómo funcionan exactamente, lo que va a generar un gran revuelto y seguro muchas noticias y titulares de compañías vs Europa. El mejor ejemplo y que ya vimos es el de OpenAI con ChatGPT y la UE.

Se habla en esta aprobación de la Ley de IA en la  UE sobre el hecho de que las empresas deben evaluar a partir de ahora los riesgos que sus productos producen según los modelos de entrenamiento que se usen. Para ello, y como es algo complejo de conseguir, los modelos como tal deben estar registrados en una base de datos de la UE para que puedan operar en el espacio económico europeo, o lo que es igual, para que puedan generar beneficios y trabajar de forma económica dicha empresa en nuestro suelo.

Se requieren requisitos de transparencia como tal. La empresa que desarrolle la IA tendrá que mostrar el contenido generado por la IA y que este no tenga nada ilegal, como información de derechos de autor, que no atente contra la salud de las personas, la seguridad, el estado de derecho y un largo etc casi interminable que veremos si pueden hacer respetar.

Como esto es una trampa burocrática sin precedentes, porque una IA puede abarcar todo, mucho o poco, según como se entrene y su objetivo. La UE quiere y premiará el uso de licencias de código abierto para sistemas de IA con excepciones concretas. O lo que es igual, reducirá la burocracia y requisitos para este tipo de IA, ya que, como hemos dicho, se busca la transparencia, y no hay nada más transparente que el código abierto en estos momentos.

¿Se puede lograr dicha transparencia realmente?

Transparencia-IA-usuario

Es un tema peliagudo. Los datos de entrenamiento son un arma y un secreto con el que las empresas trabajan. Por entenderlo fácilmente, es el kernel del Sistema Operativo, nadie quiere desvelarlo, nadie quiere que otros sepan como funciona, es la clave, lo más básico y donde se centran todos los esfuerzos en la IA.

¿Cómo se va a regular exactamente esto? Habrá empresas que prefieran no exponer sus datos de entrenamiento y no entrar en ciertos espacios económicos. Otros países han visto el problema y pretenden tomar ventaja. Japón, por ejemplo, trabaja en una Ley similar a esta Ley de IA de la UE que ya tiene la aprobación casi por unanimidad, para lanzar su propia versión argumentando que los datos con derechos de autor estarán permitidos. Hablando más claro, Japón no pondrá trabas a si los datos son privados o públicos, si pertenecen a unos u a otros. Las empresas en dicho país podrán usar estos datos para entrenar sus modelos de IA, con todo lo que ello conlleva.

Ya hemos visto los resultados de esto con ChatGPT, que al no tener en ese momento regulación alguna, filtró información confidencial de personas y empresas. Por ello, va a ser interesante comprender hacia dónde va a virar Europa conforme la Ley comience a tomar fuerza y se vean las virtudes y problemas que causa.