OpenAI amenaza con banear a aquellos que quieren saber cómo piensa su nueva IA «o1»
OpenAI se fundó en 2015 como una startup que tenía como objetivo investigar y crear una inteligencia artificial general open source, aunque en 2019 cambió de parecer convirtiéndose en una empresa que combinaba una parte sin ánimo de lucro y otra con fines lucrativos. A día de hoy es una de las compañías más relevantes en el sector de la IA y esto es gracias al desarrollo de sus complejos y precisos modelos. Hace apenas unos días OpenAI lanzó su nuevo modelo de IA o1, el cual tenía la particularidad de que la inteligencia artificial poseía la capacidad de razonar. No han tardado mucho los usuarios en intentar indagar como piensa la IA o1, pero OpenAI ha sido rápida en mandarles advertencias por correo para que paren antes de que su cuenta pueda ser suspendida.
La inteligencia artificial ha estado evolucionando en gran medida desde finales de 2022, momento en el que ChatGPT empezó a ser utilizado por millones de personas en todo el mundo. El cambio a una IA generativa que podía responder nuestras preguntas y hacer las tareas que le pidiéramos (siempre que fuesen por escrito), fue el momento en el que nos dimos cuenta que necesitábamos una herramienta así a partir de ahora. Este chatbot es tan útil que ha empezado a sustituir las búsquedas de Internet que siempre hemos estado haciendo cuando teníamos dudas sobre algo.
OpenAI amenaza con baneos a los usuarios que buscan saber como piensa su IA o1
Cuando ChatGPT se lanzó, este hacía uso del modelo GPT-3.5 y posteriormente se actualizó a GPT-4. Tras esto llegaron varios modelos que han ido mejorando sobre estos, como 4o que se anunció en mayo o el más reciente o1, que se considera el primero con razonamiento. Esta última IA nos llamaba mucho la atención y como no, la curiosidad de las personas ha ido más allá de lo previsto y han intentado descubrir la forma en la que piensa el nuevo modelo.
Algunos de los usuarios dijeron que habían conseguido cierto éxito, pero no hay nada que se haya confirmado oficialmente. Eso sí, en la otra cara de la moneda tenemos a aquellos que han sido descubiertos haciendo de las suyas y OpenAI ha mandado advertencias por correo como la que vemos. Aquí se hace mención a un intento de violación de la política de seguridad y términos de uso, avisando de que si se continúa acabarán perdiendo el acceso.
OpenAI intenta que no se filtre nada de información sobre su primer modelo de IA con capacidad de razonamiento
Para intentar descubrir como funciona el razonamiento de la IA o1 de OpenAI, han empezado a probar técnicas de jailbreak e inyecciones de prompts con el objetivo de engañarla y que así revele sus secretos. Si bien hay hackers involucrados que no buscan hacer el bien, también tenemos investigadores que si se preocupan por la seguridad. La advertencia mandada por correo como ejemplo es de Marco Figueroa, encargado de los programas de recompensas por errores GenAI de Mozilla. Este quería realizar una investigación sobre "ciberseguridad red-teaming" en esta IA, pero como ya ha podido comprobar, la compañía no le va a dejar.
El investigador menciona como sus intentos de jailbreak lo han llevado a estar en la lista de baneados de OpenAI y como no, tenemos. Simon Willison, un investigador de IA independiente, escribió en su blog personal la frustración que siente con este sistema tan cerrado de IA, pues no hay forma de aprender y sacar información. A su vez, entiende que este procedimiento de permanecer tan herméticos al resto se debe a que así se evita que otras empresas puedan sacar información útil para sus modelos.