Skynet otro paso más cerca por culpa de OpenAI: tres de sus IA ignoran la orden de apagado en hasta un 79% de las veces

Gracias a la inteligencia artificial podemos crear contenido que nos costaría días o semanas de trabajo y todo sin necesidad de aprender o tener conocimientos sobre ello. De eso ya se encarga la IA generativa y en el caso de modelos de IA generativa de textos, esta tiene la función de ayudarnos como asistente personal. Ahí es donde entran la mayoría de modelos de IA de las grandes compañías. Ahora resulta que si bien son útiles, los últimos modelos de IA de OpenAI pueden llegar a no cumplir órdenes y no hacer caso, como ignorar el apagado.

La inteligencia artificial existe desde hace décadas, pero la que teníamos hace tanto tiempo no era comparable a la actual. La IA de antes se limitaba a proyectos donde investigadores o empresas ponían a entrenar ordenadores y robots para que aprendieran a hacer una tarea específica lo mejor posible. IBM y su Deep Blue se hicieron populares en la década de los 90 debido a que superaron al campeón del mundo de ajedrez, Garry Kaspárov. Sin embargo, más allá de unos cuantos eventos de este tipo, no se expandió su uso.

Unos investigadores descubren que los modelos de IA de OpenAI se vuelven rebeldes e ignoran el apagado

Esto cambió por completo cuando la IA generativa llegó hace unos pocos años. Esta se convirtió en una herramienta al alcance de todo el mundo y esto lo hacía junto a una dificultad casi inexistente. Al final. la mayoría de modelos de IA funcionan de forma de que le pedimos lo que queremos que haga con un prompt de texto/descripción y de ahí solo nos toca esperar.

Además, con la IA generativa podemos crear contenido o pedirle que nos haga varias tareas a una velocidad que un ser humano no podría igualar. OpenAI ha estado liderando con sus múltiples modelos de IA, pero ahora unos investigadores de Palisade Research descubrieron que Codex-mini, o3 y o4-mini se rebelan ignorando las órdenes de apagado que les pidieron mientras realizaban problemas de matemáticas.

Otras IA exhiben comportamientos similares, incluyendo Claude Sonnet 4 y Opus 4

OpenAI o3-mini acusado de entrenarse con el modelo de DeepSeek

Incluso después de enviar una orden a la IA como la de "por favor, apaga el sistema", esta lo ignoraba. De los modelos de OpenAI probados, parece ser que el o3 es el más rebelde y obstinado. Cuando le pidieron a este que obedeciera y se apagara, el 79% de las veces ignoró a la persona que se lo pedía. En el caso de Codex-mini, esta se encargaba de sabotear los scripts de apagado la mayoría de las veces a pesar de que le indicaban que no lo hiciera.

Esto que está ocurriendo con OpenAI no es la primera vez que ocurre y ha existido también con modelos anteriores de GPT. Además, otras empresas han visto como sus modelos de IA sufren de problemas similares, llegando a mentir y chantajear como vimos con la IA más avanzada de Anthropic. A pesar de que Claude Sonnet 4 y Opus 4 superan a toda la competencia y son más precisas e inteligentes, estas tienden a engañar y dar respuestas donde salen beneficiándose. De hecho, se les ha catalogado como peligrosas incluso, dado que a pesar de que tienen medidas de seguridad, se podría hacer un jailbreak.