La UE se blinda ante la IA: abrirá 4 centros de «pruebas de choque» para garantizar la seguridad
Nos encontramos en una época de nuestras vidas donde la IA está avanzando tan rápido que no sabemos que será de nuestro futuro. ChatGPT y el resto de inteligencias artificiales han demostrado su utilidad, pudiendo reemplazar a los humanos en muchos tipos de trabajo. Sin embargo, su uso no ha sido del todo positivo en términos de seguridad presente y futura. Es por ello, que la UE ha decidido que abrirá centros de pruebas de choque para garantizar la seguridad de la IA.
El uso de la inteligencia artificial ha sido visto como algo positivo y negativo. Se trata de una moneda de doble cara, ya que si bien nos ayuda a realizar tareas y ser más productivos, también puede reemplazarnos y acabar siendo usada para automatizar todo. Además, IA como ChatGPT han demostrado ser "poco efectivas" en el ámbito profesional si tenemos en cuenta que todos los datos que escribamos los guarda. Eso ha dado lugar a problemas en empresas como Samsung, donde los trabajadores usaron ChatGPT y se filtraron datos confidenciales.
La UE abrirá 4 centros para garantizar la seguridad de las futuras IA
La seguridad de la IA no solo hace referencia a nuestros datos si no también hacemos referencia a su comportamiento y los efectos que tendrá en la sociedad. Este tema ha puesto en alerta a distintos países de todo el mundo y de hecho, ahora la Unión Europea ha invertido una suma multimillonaria debido a esto. La UE presenta así su sus centros permanentes de pruebas y experimentación para la IA, con el fin de garantizar su seguridad antes de que se implementen de manera pública.
Con una inversión de 220 millones de euros, Europa pondrá en marcha cuatro centros permanentes de prueba a lo largo de todo el continente. Según Lucilla Sioli, Directora de Inteligencia Artificial e Industria Digital de la Comisión Europea, estos centros se asegurarán que las futuras innovaciones en materia de IA sean completamente fiables.
Harán pruebas las con IA y robótica en entornos reales
Sobre como ayudarán estos centros de la UE a la hora de garantizar la seguridad de la IA, sabemos que combatirán la desinformación y proveerán información verídica. Otro de los aspectos en los cuales se involucrarán es en ser considerados un filtro de seguridad entre proveedores de tecnología y los usuarios. La Universidad Técnica de Dinamarca dirigirá uno de estos centros y asegura que también ayudará a las medidas públicas. Estos centros de la UE estarán disponibles tanto de manera virtual como en físico, pudiendo probar la inteligencia artificial y la robótica en entornos reales.
Entre estos tenemos la industria manufacturera, la sanidad, la agricultura, las ciudades y la alimentación. Estos centros estarán disponibles a partir del año que viene y complementarán a la legislación y normativa de la UE para la IA. Hablando de esta, tenemos la Ley de la Inteligencia Artificial que se aprobó hace dos semanas. La primera norma es que se prohibirá el uso de la IA para reconocimiento facial en espacios públicos. Lo segundo es impedir el uso de herramientas policiales predictivas y por último, se buscará una mayor transparencia en aplicaciones de iA generativa.