Las mejores mentes del mundo en IA advierten del «riesgo de extinción» de la humanidad
La carta que firmaron en su momento muchos de los principales actores de la industria de la IA ha sido extremadamente criticada. Como vimos, se pedía una pausa de 6 meses ante los imprevistos que podrían surgir dado que ahora cualquiera podría estar trabajando en su propia IA sin valorar las consecuencias. Pues bien, 22 palabras, veintidós y ni una más es lo que ha necesitado la nueva y más simple (y con más trasfondo) declaración: "Mitigar el riesgo de extinción que supone la IA".
Se puede decir perfectamente que son los mejores, los más cualificados y mentes más claras en cuanto a lo que se respecta en Inteligencia Artificial. Desde investigadores, ingenieros, desarrolladores, directores, CEOs, no importa donde mires, la lista es muy larga y los nombres son tremendamente conocidos. De nuevo, y ante las críticas, vuelven a unirse con una declaración conjunta que quiere reflejar los peligros ahora que estamos a tiempo de pararlo o, al menos, controlarlo poniendo límites.
Declaración sobre el riesgo de la IA
Y es que es eso, una declaración conjunta y firmada por todo aquel que quiera sumarse y que tiene dicho nombre por bandera. Como hemos adelantado, son 22 palabras las que hacen referencia a la carta a firmar, y ahora explicaremos los porqués, pero antes, la declaración como tal:
Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.
La declaración ha sido subida una vez más a la organización sin fines de lucro con sede en San Francisco llamada Center For AI Safety, y los nombres son realmente notorios. Comenzando por Sam Altman, CEO de OpenAI, creador de ChatGPT, pero tenemos a Demis Hassabis de Google DeepMind, los premiados Hinton y Bengio (Premio Turing 2018, aka, premio nobel de la informática) o por ejemplo, José Hernández-Orallo, Catedrático de Informática en la Universidad Politécnica de Valencia, al cual saludamos desde aquí.
¿Por qué es tan corta la declaración?
Por las críticas hacia esta nueva declaración de riesgo de la IA. Cuando se pidió 6 meses de parada muchos no firmaron porque no se proponían soluciones, simplemente era eso, un tiempo por dichos meses para regular la IA, por lo que se necesitaba dar un paso más.
Es decir, no se enfocó bien la petición, porque la carta no sugería ningún remedio y, según otros, se exageró el riesgo. Por lo tanto, las 22 palabras de ahora es una petición más corta, sí, pero más ambiciosa. No sugiere nada, ninguna forma de mitigación, ni temporal ni de ninguna manera, es neutra, y precisamente esa es su fuerza.
Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA dijo que "no querían presionar a nadie para que no hubiese un cóctel de 30 intervenciones o más sugiriendo ideas erróneas sobre el mensaje". Según dijo, "cuando eso sucede diluye el mensaje".
El problema es el aumento de las capacidades de una Inteligencia Artificial. La carta lo enfoca como un riesgo de extinción por parte de la IA, en el sentido de que las mejoras de la misma aumentan rápidamente, como jamás se ha visto, y por ello, si llegase a alcanzar un nivel de sofisticación temprana, el ser humano no tendría forma de controlar sus acciones. Sería ingobernable, escaparía al control de empresas, gobiernos y ejércitos.