«Si creamos una IA superinteligente, bajo cualquier circunstancia, literalmente, todos moriremos»

Ayer vimos cómo más de 1.100 expertos en Inteligencia Artificial y personas del mundo tecnológico, líderes de la industria e investigadores firmaban una petición por la cual se pedía a los desarrolladores de IA una pausa en la evolución. El tiempo que se pidió fue de 6 meses, siendo este hecho en general algo inaudito. Hoy, Eliezer Yudkowsky, uno de los investigadores que se negó a firmarla, da sus motivos tras más de 22 años estudiando la IA, algo que siendo uno de sus fundadores da escalofríos. Y es que una IA superinteligente nos matará, literalmente hablando.

Señoras, señores, no hay que ponerse ningún gorrito de plata, ni irse a buscar a la Deep Web declaraciones o documentos clasificados. La carta es abierta, la industria no lo ve nada claro, los peligros son demasiado evidentes y se cruzan con la ciencia ficción que de niños (y no tan niños) veíamos en películas de Hollywood, salvo que esto es muy real y está pasando, ahora, delante de nuestros ojos.

La realidad que enfrentamos al dar paso a la Inteligencia Artificial

Yudkowsky

Siendo uno de los fundadores de la IA, a Yudkowsky hay que escucharle con una copa en la mano y la mente muy abierta, bien sentados en un buen sillón y con ganas de aprender. Más de 22 años en el campo lo avalan y, en cambio, no ha firmado la carta de marras. En una columna en la revista Time expresa sus mayores temores y hacia dónde se dirige el ser humano. La realidad de sus palabras da auténtico pánico y deberíamos estar actualmente muy preocupados. Sin más, este es un extracto corto de su argumento:

Esta moratoria de 6 meses sería mejor que ninguna moratoria. Tengo respeto por todos los que dieron un paso al frente y lo firmaron. Es una mejora al fin y al cabo, pero me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla.

El tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta.

Eliezer Yudkowsky afirma que una IA superinteligente nos matará

IA-Killer

Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA "superhumanamente inteligente", bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra moriremos. No es algo como "tal vez, posiblemente, existe alguna posibilidad remota de que eso pase", sino más bien como "eso es lo más obvio, sucederá".

No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por conjuntos gigantes e inescrutables de números fraccionarios.

Sin esa precisión y preparación, el resultado más probable es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general. Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos listos y actualmente no sabemos cómo hacerlo.

En ausencia de ese cuidado, obtenemos que "la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa". El resultado probable de que la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total. Las metáforas válidas incluyen “un niño de 10 años tratando de jugar al ajedrez contra Stockfish de 15”, “el siglo XI tratando de luchar contra el siglo XXI” y “un Australopithecus tratando de luchar contra el Homo sapiens”.

La realidad llega a la altura de la ficción: Visión podría ser posible, en parte

Visión-Marvel

Para visualizar una IA sobrehumana hostil, no imagines a un "pensador inteligente" y sin vida viviendo dentro de Internet y enviando correos electrónicos mal intencionados. Visualiza toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a los ordenadores, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas.

Una IA lo suficientemente inteligente no permanecerá confinada en los ordenadores por mucho tiempo. En el mundo actual, puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica.

Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después. Un añadido aparte: nada de este peligro depende de si las IA son o pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos poderosos que optimizan y calculan resultados que cumplen con criterios suficientemente complicados.

Dicho esto, sería negligente en mis deberes morales como humano si no mencionara también que no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de cómo decodificar nada de lo que sucede en las matrices inescrutables gigantes, y por lo tanto, en algún momento, sin darnos cuenta, podemos crear mentes digitales que son verdaderamente conscientes y deberían tener derechos y no deberían ser propiedad.

No estamos preparados

La carta sigue, es más extensa, así que os invitamos a leerla para comprender a lo que nos enfrentamos. Hemos abierto la caja de Pandora y no estamos listos. Las mentes más brillantes de nuestra sociedad, del mundo, están pidiendo calma en una carrera que, como de costumbre, uno de los bandos quiere ganar, pero casi nadie se ha parado a pensar en las consecuencias que tendrá.

Ayer hablábamos de 300 millones de personas que serán reemplazadas por la IA, hoy puede que este hecho que podría afectarte de manera directa quede en un segundo plano si lo que está en juego es nuestra supervivencia como especie. Parece una película, ojalá fuese así, pero no, es la realidad a la que nos enfrentamos (como hicimos con el COVID, que era igualmente de película) si seguimos por el camino que vamos, y lo dice uno de los padres fundadores de la IA. ¿Podremos controlarla y hacerlo de manera ética? Yudkowsky afirma tajantemente en su mensaje que NO ESTAMOS PREPARADOS.