La Comisión Europea propone no regular la IA para uso militar, pero sí para robots sanitarios

La Comisión Europea ha presentado un amplio marco regulador para la Inteligencia Artificial que, si se adopta, podría tener implicaciones globales para el futuro del desarrollo de la IA.

En resumen, La Comisión intentará regular el crecimiento y la evolución de esta tecnología emergente.  Al igual que con su ambicioso plan de Reglamento General de Protección de Datos (GDPR) en 2018, la Comisión está tratando de establecer un nivel básico de confianza pública en la tecnología basado en protecciones estridentes de los usuarios y de la privacidad de los datos, así como contra su posible uso indebido.

 0

"La inteligencia artificial no debe ser un fin en sí mismo, sino una herramienta que tiene que servir a las personas con el objetivo final de aumentar el bienestar humano. Las normas relativas a la inteligencia artificial disponible en el mercado de la Unión o que afecten de otro modo a los ciudadanos de la Unión deben, por tanto, situar a las personas en el centro (estar centradas en el ser humano), para que puedan confiar en que la tecnología se utiliza de forma segura y conforme a la ley, incluido el respeto de los derechos fundamentales", incluyó la Comisión en su proyecto de reglamento.

"Al mismo tiempo, estas normas para la inteligencia artificial deben ser equilibradas, proporcionadas y no restringir ni obstaculizar innecesariamente el desarrollo tecnológico. Esto es especialmente importante porque, aunque la inteligencia artificial ya está presente en muchos aspectos de la vida cotidiana de las personas, no es posible prever todos los posibles usos o aplicaciones de la misma que puedan darse en el futuro."

Entre los ejemplo de Inteligencia Artificial en la vida cotidiana, hay cosas tan simples como los algoritmos de recomendación que nos ayudan a decidir qué ver en Netflix y a quién seguir en redes sociales, los asistentes de los smartphones, servicio al cliente telefónico/chats, y como el máximo exponente actual, los vehículos autónomos.

 1

"La Comisión Europea ha vuelto a dar un paso en falso para abordar la tecnología emergente, al igual que había hecho con la privacidad de los datos a través del GDPR", dijo la Dra. Brandie Nonnecke, directora del CITRIS Policy Lab de la Universidad de California. "La propuesta de regulación es bastante interesante en el sentido de que está atacando el problema desde un enfoque basado en el riesgo".

Estas nuevas normas dividirían los esfuerzos de desarrollo de la IA en la Unión Europea en un sistema de cuatro niveles: riesgo mínimo, riesgo limitado, riesgo alto y prohibición total, en función de sus daños potenciales para el bien público.

"El marco de riesgo en el que trabajan gira en torno al riesgo para la sociedad, mientras que siempre que se oye hablar de riesgo [en EE.UU.], es más bien en el contexto de 'cuál es mi responsabilidad, cuál es mi exposición'", dijo la Dra. Jennifer King, investigadora de políticas de privacidad y datos en el Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford a Engadget. "Y de alguna manera, si eso abarca los derechos humanos como parte de ese riesgo, entonces se incluye, pero en la medida en que eso puede ser externalizado, no se incluye".

Armada Estados Unidos Drone

Los usos prohibidos de la tecnología incluirán cualquier aplicación que manipule el comportamiento humano, así como los sistemas de identificación biométrica "en tiempo real" y los que permitan la "puntuación social", un guiño directo al Sistema de Crédito Social de China y, dado que esta normativa seguiría regulando teóricamente las tecnologías que afectan a los ciudadanos de la UE, estén o no físicamente dentro de sus fronteras, podría dar lugar a algunos incidentes internacionales en un futuro próximo. Por otro lado, el reconocimiento facial en sitios públicos estará prohibido.

Un peldaño por debajo tenemos las aplicaciones alto riesgo, que se definen como cualquier producto en el que la IA está "destinada a ser utilizada como un componente de seguridad de un producto" o la IA es el componente de seguridad en sí mismo, aunque excluye su uso militar.

Además, las aplicaciones de IA destinadas a las infraestructuras críticas, la educación, los asuntos legales/judiciales y la contratación de empleados, también se consideran parte de la categoría de alto riesgo. Aquí se mete también a la cirugía asistida por robots. Éstos pueden salir al mercado, pero están sujetos a estrictos requisitos normativos antes de salir a la venta, como exigir al desarrollador de la IA que mantenga el cumplimiento de las normas de la UE durante todo el ciclo de vida del producto, asegurar estrictas garantías de privacidad y mantener perpetuamente a un humano en el bucle de control.

 3

Las aplicaciones de riesgo limitado incluyen cosas como los chatbots en sitios web de servicios o la presentación de contenidos deepfake. En estos casos, el fabricante de IA simplemente tiene que informar a los usuarios por adelantado de que van a interactuar con una máquina en lugar de con otra persona o incluso con un perro. Y en el caso de los productos de riesgo mínimo, como la IA de los videojuegos.

Si alguna empresa o desarrollador se atreve a ignorar estas normas, descubrirá que incumplirlas conllevará una fuerte multa, que puede medirse en porcentajes del PIB. En concreto, las multas por incumplimiento pueden alcanzar los 30 millones de euros o el 4% de los ingresos anuales globales de la entidad, lo que sea mayor.

Artículos relacionados