El G7 se reúne en Hiroshima para regular la IA, pero no saben cómo hacerlo
No hay dudas que la Inteligencia Artificial se ha convertido en la tecnología de moda y la cosa ha llegado a niveles tan grandes que se ha reunido el G7 en Hiroshima para tratar el tema de la IA y llegar a potenciales regulaciones en común. En especial por los efectos en la economía, derechos laborales y de capacidad productiva. ¿Qué decisiones han tomado y cómo afectarán al futuro de esta disciplina informática?
No hay dudas que la Inteligencia Artificial se está vendiendo como una especie de poción milagrosa moderna, por un lado, y como la llegada del maligno a la tierra, dependiendo de a quien le preguntemos y la situación de cada uno. Lo que sí que es cierto es que al igual que toda nueva tendencia, esta llega el punto que requiere ser regularizada para que no se salga de madre, trabajo que corresponde a políticos y juristas. Claro está, que no puede que un país importante diga blanco y el de al lado le dé por mencionar otro color en el tema.
¿Qué es el proceso Hiroshima del G7 para regular la IA?
Los siete líderes mundiales de mayor influencia, el G7, se ha reunido en Hiroshima para discutir su punto de vista sobre la IA y sus potenciales regulaciones en común con tal de evitar problemas graves con el uso de la misma. Sin embargo, tal y como veremos después, todavía no se han puesto de acuerdo en que soluciones quieren implementar.
En realidad, lo que les preocupa a los políticos es la subversión y disrupción política que puede provocar el uso de información falsa generada por la IA. Donde a través de los llamados Deep Fakes se pueden crear declaraciones, vídeos e imágenes falsos de figuras importantes que se pueden hacer pasar por reales. Luego, las consecuencias pueden ser desastrosas a nivel político, llegando a desestabilizar un país y a hundirlo por completo en una guerra.
Y no son los únicos preocupados, la organización mundial de la salud también desde el momento en que a través de la IA se pueden hacer creíbles bulos sobre salud. Incluso es posible engañar a aplicaciones como ChatGPT para que desinformen sin querer sobre ciertos temas. Esto por no hablar de la creación de bulos que erosionan la implementación de nuevas soluciones médicas al mundo con el objetivo de salvar vidas.
De acuerdo en el problema, en desacuerdo con las soluciones
Lo que sorprende de las soluciones sobre la mesa de cada uno de los participantes en la cumbre, es algo común en este tipo de eventos, dado que cada uno tiene intereses distintos, especialmente económicos. Un problema común que vemos en todos estos eventos.
- La perspectiva de Japón es que una ley demasiado detallada puede ser demasiado torpe como para poder afrontar los rápidos cambios tecnológicos. No obstante, su mayor dilema es si pueden utilizar leyes en las que el gobierno tome el poder de la situación si la cosa se llegará a torcer
- En cuanto a la Unión Europea, esta es más pragmática, por el momento quieren prohibir que la IA pueda identificar personas a tiempo real como primera medida en proceso. Otra cosa que quieren hacer es obligar a que las herramientas utilizadas para la IA dejen siempre una marca de agua y avisen al espectador que el contenido creado no es real, sino generado.
En cuanto a las propuestas encima de la mesa del resto de participantes las desconocemos por completo, veremos si son capaces de conseguir un estándar de regulación del uso de la inteligencia artificial, en especial de aplicaciones generativas de contenido como Dall-E o ChatGPT. Por el momento, la realidad es que la IA ha sobrepasado al G7 en Hiroshima.