Todas las agencias federales de EE.UU. deberán contratar a un directivo de IA

Aunque no lo parezca a simple vista, la inteligencia artificial se está involucrando en nuestra sociedad cada vez más y dentro de poco parece que va a ser completamente común usar una IA para todo. Ya las hemos visto en móviles, ordenadores y PC en forma de asistentes y chatbots. En Estados Unidos han ido un paso más allá, pues las nuevas normativas de la Oficina de Administración y Presupuesto, obligarán a todas las agencias federales de EE.UU. a contratar a un directivo de IA encargado de supervisar las herramientas de inteligencia artificial para comprobar su seguridad.

Estados Unidos es un país que está muy preocupado por su seguridad y la de sus ciudadanos. Debido a esto, ha estado enfrentándose a China y así es como hemos visto que han acabado algunas compañías y productos en la lista negra. EE.UU. empezó a prohibir TikTok en 2023 y Montana fue el primer estado que estaba a favor de imponer esta normativa. Si adelantamos a los sucesos más recientes de hace unas pocas semanas, la Cámara de Representantes de Estados Unidos dio un paso más allá. Anunció un proyecto de ley que obligaba a TikTok a desvincularse de su empresa matriz en China o acabaría siendo prohibida.

La OMB de EE.UU. obligará a las agencias federales a tener un directivo de IA

Inteligencia-Artificial-General-AGI

No solo hablamos de seguridad en cuanto a aplicaciones o productos de China, sino que ahora Estados Unidos también se preocupa por la inteligencia artificial. La vicepresidente Kamala Harris ha anunciado nuevas directrices y normas a seguir presentadas por la Oficina de Administración y Presupuesto (OMB). El objetivo de esta normativa es el de presentar un informe anual a la OMB donde se listen todos los sistemas IA empleados. También se deberán mencionar los riesgos de dichas herramientas IA y como pretenden mitigarlos.

Para hacer estos informes, han ordenado a todas las agencias federales de EE.UU. que contraten a un directivo de IA, con conocimientos para realizarlos. Estados Unidos quiere asegurarse de que la inteligencia artificial se usa de forma responsable y es completamente segura. Si se lista alguna herramienta de IA que no cumple con los requisitos y transparencia, este puede llegar a excluirse.

Exigirán entregar informes para comprobar la seguridad de las herramientas de IA

Banco-Central-Europeo-Inteligencia-Artificial-inflación-BCE-IA

Este director de inteligencia artificial debe encargarse de supervisar la adopción y uso de la IA en las agencias federales de EE.UU., aunque no necesita ser un cargo político. Algunas entidades e instituciones ya empezaron a contratar a jefes y directores de IA antes del anuncio oficial. Por ejemplo, el Departamento de Justicia nombró a Jonathan Mayer como su primer CAIO (Director ejecutivo de IA) en febrero. Este se encargará de dirigir a un equipo de expertos en ciberseguridad que se encargará analizar los sistemas y cumplir la normativa.

Según la presidenta de la OMB, Shalanda Young, se esperan contratar a 100 profesionales de la IA antes de que llegue verano. Algunos de los ejemplos que ha mencionado la OMB son informes sobre la IA en el sistema sanitario federal, en aeropuertos o para detectar el fraude en servicios gubernamentales.