Exdirector de Google avisa: ‘habría que desconectar la IA cuando comience a mejorar por sí sola’

Eric Schmidt, el exdirector ejecutivo de Google, hablo sobre lo que nos podía deparar la inteligencia artificial, a nivel de problemas, una vez que comience a mejorar por sí sola. Como ya viene siendo costumbre, el exdirector de Google habla de los puntos negativos de la IA. Y es que en los últimos meses ha crecido la preocupación en torno a lo que podría hacer la IA en un futuro cercano.

Sin ir más lejos, a mediados de año, Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, dijo que había un 99,99% de probabilidades de que la IA acabará con la humanidad. Y es que la IA generativa promete cambiar el mundo, e incluso, destruirlo.

Exdirector ejecutivo y presidente de Google ya piensa en desconectar la IA

inteligencia artificial con automejora recursiva dominacion humana

En una entrevista para el canal de televisión estadounidense ABC News, Eric Schmidt fue bastante claro. Y es que dejó claro que la IA debe tener un techo en cuanto a su desarrollo. En concreto, evitando un punto donde la propia inteligencia artificial sea capaz de mejorar por sí sola, lo que implicará el inicio de un problema. Este aviso llega en un momento donde OpenAI, y el resto de la industria, están en una carrera de avance tecnológico relacionado con la IA.

“Cuando el sistema pueda mejorar por sí solo, tendremos que pensar seriamente en desconectarlo. Va a ser muy difícil. Va a ser muy difícil mantener ese equilibrio”.

Para que tengamos un contexto, en 2018-2019, GPT-2 experimentó una mejora de rendimiento de hasta un 100% en tareas como generación de texto coherente en benchmarks como GLUE. Pero aumentó en un 1.100% el tamaño del modelo pasando de 117 millones de parámetros a 1.500 millones. En 2020, de GPT-2 a GPT-3, pasamos a 175.000 millones de parámetros (+11.500%) con una mejora de rendimiento entre un 200 y 300% dependiendo de los benchmarks.

En 2023, GPT-4 experimentó una mejora de rendimiento entre un 50 y 100% dependiendo de la prueba de rendimiento. Y justo hace unos días, se anunció o3-mini, el cual llega a ser hasta un 30% más rápido que GPT-4 en lógica compleja y resolución de problemas, entre un 15 y 25% más rápido generando respuestas, o hasta un 15% más rápido en razonamiento científico y matemático.

Se teme la denominada automejora recursiva, la cual traería numerosos problemas

inteligencia artificial con automejora recursiva dominacion humana

Lo que el exdirector de Google denomina "mejorar por sí sola", se traduce en automejora recursiva. Esto implicaría un problema bastante grave, pues en un plazo de tiempo muy corto, la IA podría alcanzar un nivel de inteligencia mucho más allá de la comprensión humana. Y sí, esto se traduce a la pérdida de control por parte del humano. Impidiendo ser capaces de predecir o entender las decisiones de una IA superinteligente.

Tras esto, la IA podría optimizarse para objetivos que no estén alineados con los valores humanos. Imagina que hay un problema de suministro de energía. Pues adiós al ser humano, ya que consumen mucha energía. Una solución lógica, y respetable (yo ya me voy poniendo de lado de la IA para asegurar mi supervivencia).

Seguimos por una "batalla" entre distintos sistemas de IA compitiendo por recursos y dominancia. Riesgos existenciales, monopolización del poder, evolución incontrolable, falta de transparencia... Y sí, todo ello un largo etcétera.