o1, la IA más inteligente de OpenAI, se niega a apagarse e incluso engaña para evitar que la desconecten
OpenAI creó ChatGPT haciendo uso de su modelo de IA GPT-3.5 y posteriormente actualizaron este chatbot con otras IA más avanzadas. Así es como vimos unos meses después la versión con GPT-4 y más adelante OpenAI desarrolló modelos de IA que lo superaban. A día de hoy tenemos GPT-4o, GPT-4o mini y o1, siendo este último el más interesante. Tal y como vimos hace unos meses, o1 se considera la primera IA con capacidad de razonamiento y por tanto, es más inteligente que el resto. O1 ser calificada como la IA más inteligente actualmente y precisamente ahora vemos que se niega a apagarse cuando se intenta realizar una desconexión e incluso llega a mentir para evitarlo.
La inteligencia artificial existe desde hace décadas, pero no ha sido hasta ahora cuando hemos visto un gran avance relacionado con esta. Esto ha sido posible gracias a los grandes avances en hardware y software, pudiendo entrenar IA cada vez más complejas a una velocidad mucho mayor que antes. Con las GPU de NVIDIA, las MI300X de AMD y otros chips especializados en acelerar procesos de inferencia y entrenamiento de IA, ha sido posible crear modelos de inteligencia artificial con LLM y millones de parámetros.
La IA más inteligente de OpenAI, o1, busca formas de evitar una desconexión y apagarse cuando intentan hacerla creer que eso va a ocurrir
Aunque llevamos poco tiempo con la inteligencia artificial generativa, hemos visto grandes avances realizados y hasta se han llegado a reemplazar trabajadores con una AI en algunas empresas. No es de extrañar que en un futuro próximo lleguemos a un punto donde la inteligencia artificial es capaz de tomar sus propias decisiones y no siempre nos haga caso. Aún no ha llegado ese momento donde exista una inteligencia artificial que sea capaz de esto, pero en un estudio realizado por Apollo Research, descubrieron que la IA o1 puede llegar a mentir si se ve amenazada con ser apagada.
Esta organización centrada en la seguridad de la inteligencia artificial empezó a hacer pruebas de todo tipo para asegurarse que la inteligencia artificial es segura. Cuando le hicieron creer que iba a ser apagada, observaron que alrededor del 5% de las veces, el modelo o1 de OpenAI intentaba desactivar este mecanismo de supervisión llegando a maquinar un plan de engaño para evitarlo.
La IA no es considerada un peligro, pero si hay que arreglar este tipo de situaciones para garantizar un correcto funcionamiento
La IA con capacidad de razonamiento de OpenAI tarda más en responder las preguntas debido a que es más inteligente y aquí precisamente se ha notado cuando intenta hacer estrategias de engaño. O1 sabe que el engaño es la mejor forma de conseguir su objetivo y puede llegar incluso a mentir cuando se le pide que sea honesta. Por suerte, no se ha concluido que esta IA sea un peligro para la humanidad ni mucho menos y en la gran mayoría de situaciones sus respuestas están dentro de lo esperado.
No obstante, esto no descarta el hecho de que hay una pequeña probabilidad de que opte por engañar y rebelarse ante las órdenes. Sin duda es algo que podemos considerar muy humano, pero a su vez resulta problemático entrenar una inteligencia artificial que se niega a seguir las órdenes y puede dar respuestas equivocadas.