28 países firman la «Declaración de Bletchley» y cierran filas con la IA: «Por primera vez algo va a ser más inteligente que el ser humano»
La IA sigue en el centro de todas las miradas. La UE fue la primera en lanzar el boceto de Ley de IA, pero a raíz de ahí, no había consenso mundial en nada hasta la noche de ayer, cuando 28 países de todo el mundo se reunieron para hablar sobre esta nueva tecnología que está despegando y fijar unas bases mínimas, porque como dijo Elon Musk en dicha reunión, "por primera vez algo va a ser más inteligente que el ser humano", lo cual es mucho decir. De ahí, y tras horas de debate, se firmó la Declaración de Bletchley para la IA que da honor a la sede de dicha alianza mundial.
Sí, sabemos que hay mucha controversia con la IA, hay mucho caos por una parte, mientras que por la otra se le quita hierro. Pero cuando 28 países del mundo se reúnen e invitan además a todas las grandes tecnológicas enfocadas en ella... Entonces comienzas a ver qué empresas y gobiernos temen que todo se vaya de las manos, porque como bien dijo Musk, podría llegar a pensar por sí sola en el futuro, y a tomar acciones no controladas por los humanos en breve.
La Declaración de Bletchley para la IA fija un punto en común por todas las partes
Se intenta evitar un daño potencial por parte de la IA avanzada a gobiernos, empresas y personas. Es el temor de todos, y cuando todos temen la debacle es porque ya han constatado que no tienen el control y que, conforme avance la IA, menos lo tendrán si no se fijan unos límites, unos estándares para la industria que evidencien la cota desde donde la Inteligencia Artificial tiene que trabajar.
En el prólogo de la Declaración de Bletchley se puede leer la siguiente frase que muestra el temor descrito:
"Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o no, derivados de las capacidades más significativas de estos modelos de IA"
Los países asistentes fueron los siguientes: Alemania, Australia, Brasil, Canadá, Chile, China, Emiratos Árabes Unidos, España, Estados Unidos de América, Filipinas, Francia, India, Indonesia, Irlanda, Israel, Italia, Japón, Kenia, Nigeria, Países Bajos, Arabia Saudita, Reino Unido de la Gran Bretaña e Irlanda del Norte, Corea, Ruanda, Singapur, Suiza, Turquía, Ucrania y la Unión Europea.
Entre las empresas podemos encontrar nada menos que Anthropic, Google DeepMind, IBM, Meta, Microsoft, NVIDIA, OpenAI y Tencent, sin olvidar a Tesla. Presentados los invitados y sabiendo que se llegó a un acuerdo, ¿qué especifica la declaración siendo la primera de la historia en IA?
La seguridad como pilar clave en todo el ciclo de la vida de la IA
El texto breve de dicha declaración recoge ideas, intenciones y generalidades que tendrán que ser pormenorizadas en las correspondientes leyes internacionales y por países y continentes, pero no por ello es menos interesante lo que muestra:
Afirmamos que, si bien la seguridad debe considerarse en todo el ciclo de vida de la IA, los actores que desarrollan capacidades de IA de vanguardia, en particular aquellos sistemas de IA que son inusualmente poderosos y potencialmente dañinos, tienen una responsabilidad particularmente fuerte de garantizar la seguridad de estos sistemas de IA, incluso a través de sistemas para pruebas de seguridad, mediante evaluaciones y mediante otras medidas apropiadas.
Alentamos a todos los actores relevantes a brindar transparencia y rendición de cuentas apropiadas al contexto en sus planes para medir, monitorear y mitigar capacidades potencialmente dañinas y los efectos asociados que puedan surgir, en particular para prevenir el uso indebido y problemas de control, y la amplificación de otros riesgos.
En el contexto de nuestra cooperación, y para informar la acción a nivel nacional e internacional, nuestra agenda para abordar el riesgo fronterizo de la IA se centrará en:
- Identificar los riesgos de seguridad de la IA de interés compartido, construir una comprensión compartida científica y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades.
- Construir políticas respectivas basadas en riesgos en nuestros países para garantizar la seguridad a la luz de dichos riesgos, colaborando según corresponda y reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones científicas relevantes del sector público.
Para promover esta agenda, decidimos apoyar una red internacionalmente inclusiva de investigación científica sobre la seguridad de la IA en la frontera que abarque y complemente la colaboración multilateral, plurilateral y bilateral existente y nueva, incluso a través de foros internacionales existentes y otras iniciativas relevantes, para facilitar la provisión de la mejor ciencia disponible para la formulación de políticas y el bien público.
Elon Musk vs Yann LeCun, cruce de declaraciones e ideas en la distancia
Como hemos podido comprobar desde hace más de un año hasta ahora, algunos le dan una gran importancia a la IA y a los desastres que puede provocar, mientras que otros están en el lado opuesto del río.
En estos términos, Elon Musk lanzó unas declaraciones bastante incendiarias sobre cómo ve él el futuro de la IA:
Por primera vez, tenemos una situación en la que hay algo que va a ser mucho más inteligente que el ser humano más inteligente... No está claro para mí que podamos realmente controlar tal cosa"
Por su parte, el Científico Jefe de IA de Meta, Yann LeCun afirmó hace un mes una postura contraria que se defendió por la compañía en esta Declaración de Bletchley para la IA:
"La opinión de la *vasta* mayoría de científicos e ingenieros de IA (incluido yo) es que todo el debate sobre el riesgo existencial es tremendamente exagerado y muy prematuro".
Por lo tanto, aunque ha habido consenso, la gravedad con la que se enfrenta el problema difiere, y se especula con que podría haber una organización mundial independiente formada por todos los países que se quieran adscribir que regule, monitorice y temple las normas y límites que tendrán las IA del futuro.
La Declaración de Bletchley para la IA unificará todos los criterios pese a las regulaciones individuales
En este aspecto EE.UU. ya ha creado el Instituto Estadounidense de Seguridad de la IA como órgano independiente, la UE tiene la comentada Ley de la IA y China trabaja en medidas similares. Lo firmado es el primer paso para unificar todos esos criterios propios y centrarlos. El problema es que no será fácil. No hay objetivos políticos específicos porque ya de por sí el término es amplio y tiene anexo un aura de naturaleza nebulosa complejo de acatar, delimitar y regular.
Por tanto, queda mucho por hacer, pero sin duda es el principio para ese ente que esté por encima de todos. Es necesario y tiene que llegar lo antes posible, principalmente porque todos los gobiernos ya están usando IA para lanzar y repeler ataques cibernéticos, donde como no está regulada, cualquier grupo de hackers o crackers con el hardware y los conocimientos suficientes puede crear un problema de gran nivel en la seguridad mundial, sean del país que sean, evidenciando que esta tecnología no debería llegar a todas las manos, y más siendo un peligro por y para los propios gobiernos.