Un investigador asegura que hay un 99,9% de probabilidades de que la IA acabe con la humanidad

Llevamos ya un tiempo hablando de inteligencia artificial y como esta está cambiando totalmente como vemos y hacemos las cosas. Con la IA podemos recibir ayuda de todo tipo usando asistentes virtuales y a su vez, también podemos emplearla para crear todo tipo de contenido. Si bien la IA está siendo acogida de forma positiva en términos generales, al paso al que avanzamos no podemos dejar de cuestionarnos en que momento se nos irá esto de las manos. No solo hemos visto en películas el caos que podría producirse si la IA toma el control, sino que además hay investigadores que creen que esta podría acabar con la humanidad sin ninguna duda.

La inteligencia artificial ha existido durante décadas, pero no era un tema que creaba suficiente interés en esa época y al final quedaba relegado a algo que sabíamos que aprovecharíamos más en un futuro. Los avances en cuanto a hardware y tecnología han permitido que sea posible poder entrenar modelos de IA avanzados en relativamente poco tiempo, siempre y cuando se empleen cientos o miles de GPU de NVIDIA. Hemos visto la gran demanda de estas debido a la IA y no nos extraña, viendo los grandes avances a pesar del poco tiempo que lleva la IA generativa con nosotros.

El investigador de IA Roman Yampolskiy opina que hay un 99,9% de probabilidad de que la IA acabe con la humanidad

La creación de imágenes, textos o incluso vídeos usando una inteligencia artificial es algo que ya es una realidad y aunque esto ya de por si impresiona bastante, el objetivo es desarrollar algo más complejo que eso. La creación de una AGI (Inteligencia Artificial General), es el siguiente objetivo de OpenAI, siendo esta la IA que teóricamente podría hacer cualquier actividad comparable a un ser humano. Esta sería capaz de aprender y comprender los pasos para hacer todo tipo de tareas de forma similar a un humano, algo que nos impresiona y nos hace temer sobre nuestro futuro.

Si una IA generativa como ChatGPT ha provocado que se reemplazaran a los trabajadores humanos en algunas empresas, nos podemos imaginar el impacto de una AGI. El ser sustituidos en el trabajo debería ser la menor de nuestras preocupaciones si tenemos en cuenta que lo que opina el investigador de IA Roman Yampolskiy es que hay un 99,9% de probabilidades de que la IA acabe con la humanidad, salvo que tomemos medidas al respecto.

Elon Musk cree que las posibilidades son del 20%, el CEO de Anthropic piensa que es el 25% y Yann Le Cun dice que menos de un 0,01%

P DOOM

El Dr. Roman V. Yampolskiy es el autor del libro "AI: Unexplainable, Unpredictable, Uncontrollable" que se lanzó hace unos meses y trata la naturaleza caótica y el peligro que conlleva el desarrollo de la inteligencia artificial. Este ha hablado de estos y muchos otros temas en la entrevista/podcast realizado por Lex Fridman en YouTube. Este ha indicado que el índice P(doom) o probabilidad de que una IA avanzada acabe con la humanidad es de prácticamente el 100% siempre y cuando la dejemos completamente libre. Por ello, considera que los seres humanos deberíamos enfocarnos en desarrollar software para controlar a la IA.

Estas medidas y programas deben ser creados como una muralla impenetrable e inalterable, lo que implica que no deben ocurrir fallos o bugs, pues si dependemos de estos como medida de protección y ocurre uno de estos, la inteligencia artificial volvería a ser libre. Por ahora ya hemos visto casos de que han conseguido saltarse las medidas de seguridad de IA como ChatGPT, por lo que por el momento no hay ningún sistema infalible. Igualmente, Roman espera que todo este sofisticado software esté preparado para el siguiente siglo, por lo que aún queda mucho para ello. Por otro lado, tenemos la opinión de Elon Musk que como ya sabemos se ha metido de lleno en la IA con x.AI.

Este tiene una visión mucho más positiva y optimista, pues considera que una IA avanzada como esa futura AGI "solo" tendría una posibilidad del 20% de acabar con la humanidad. Otros CEO como el de Anthropic considera que esta es del 25% y luego tenemos casos muy diversos como el de Jan Leike que da una posibilidad del 10 al 90% o el de Yann Le Cun, que opina que es totalmente improbable que ocurra esto.