Los planes secretos de Sam Altman para OpenAI que forzaron su despido: así es el Proyecto Tigris y el Proyecto Q

El culebrón tardó pocos días en cerrarse, pero sigue dando coletazos. Y es que no se entendía realmente por qué una empresa como OpenAI que va directa al mayor de los éxitos y lidera la IA en el mundo con ChatGPT y sus variantes puede despedir a su CEO de la noche a la mañana y hacer el mayor de los ridículos teniendo que admitirlo tras las amenazas de los empleados y el escarnio público. Pues bien, se han filtrado dos motivos que tienen un nombre concreto: el Proyecto Q y el Proyecto Tigris.

Lo filtrado sobre ambos proyectos revelan que muchas personas dentro de la junta no estaban de acuerdo con ninguno, por distintos motivos, pero sobre todo porque uno de los dos presenta un riesgo inherente para la humanidad según parece. Por ello, es interesante saber a toro pasado y tras irse de la lengua alguien de arriba, qué prepara la mayor empresa de desarrollo de IA del mundo.

OpenAI quiere ir a por NVIDIA con el Proyecto Tigris

Tensor-Processing-Units-o-TPU

La compañía no se quiere quedar solamente en el desarrollo de IA en cuanto a algoritmos o robótica, quiere ir a por la base del mercado, que no es otra que el hardware, y ahí, a día de hoy, reina NVIDIA. En enfoque del Proyecto Tigris no es otro que centrar los esfuerzos y la inversión que se pueda recaudar en el desarrollo de chips para IA.

Altman estaba en diversas conversaciones para recaudar miles de millones de dólares de inversores de todo el mundo, hasta de Oriente, donde fue de viaje justamente poco antes de ser despedido. El enfoque del Proyecto Tigris serían las TPU, (Tensor Processing Units o Unidades de Procesamiento Tensorial) como tiene NVIDIA con los Tensor Cores y otras empresas.

Según se ha filtrado, Altman propuso un modelo de hardware más rentable a las GPU de NVIDIA, de manera que su empresa pudiese costear de mejor manera el hardware y no depender de los de Jensen Huang ni de la escasez de GPU que se vive ahora mismo. Desde OpenAI aseguran que este no ha sido el motivo del despido, pero otras voces dicen que es una parte, pero donde parecen todos coincidir es con el Proyecto Q.

El Proyecto Q, la preocupación de gran parte de la junta

Inteligencia-Artificial-General

Y es que este Proyecto Q va un paso, o dos, más allá de lo que conocemos a día de hoy como IA, como Inteligencia Artificial Generativa. De hecho, los investigadores de la propia compañía enviaron una carta a la junta directiva advirtiendo de un poderoso descubrimiento con IA, que, en sus propias palabras en dicha carta "podría amenazar a la humanidad".

Y no, no es la típica frase hecha "asustaviejas". Son los propios investigadores de la propia compañía los que estaban asustados, y vamos a ver el porqué. Se especifica en dicha carta el siguiente contenido relevante: "comercialización de avances destacados en IA sin antes comprender las consecuencias".

Si estás muy metido en el sector de la IA seguro que has levantado la ceja cual Ancelotti siendo entrevistado por un periodista, y sí, estamos hablando de que OpenAI habría descubierto la verdadera Inteligencia Artificial General, también conocida como AGI.

¿Qué quiere decir esto? Pues que es una IA real, es una IA que se define como la primera de la historia en ser AGI, o lo que es igual, es un sistema autónomo que supera al ser humano en la mayoría de las tareas que son valiosas.

Una IA que no solo aprende, ya es capaz de comprender

Inteligencia-Artificial-General-AGI-Proyecto-Q

Para situarnos, se dice que la AGI de OpenAI consiguió resolver problemas matemáticos complejos, nada realmente relevante en dificultad para un ser humano, pero sí para una IA. Y es que en matemáticas solo hay una respuesta correcta para los problemas medianamente complejos, no es algo predecible para una IA, no es algo que pueda aprender a base de solamente entrenamiento, requiere dos pasos más allá en intelecto.

En otras palabras, la AGI puede comprender, no solo aprender, y esto asustó a los investigadores hasta el punto de redactar dicha carta, que unida a todos los argumentos que en ella figuraban hizo que la junta directiva tomase la decisión de despedir a Sam Altman.

De hecho, un día antes del despido, en la Cumbre de Cooperación Económica Asia-Pacífico, Altman deslizó lo siguiente:

"Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala (laboratorio), cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante, y poder hacer eso es el honor profesional de mi vida."

El resto es historia, pero claro, a raíz de esto que se ha desvelado, ¿está OpenAI corriendo demasiado? ¿Si una AGI ya es capaz de comprender y razonar, no es peligrosa de por sí? Hay muchas preguntas éticas que responder, al igual que tecnológicas. Para que una junta decida despedir a uno de los mejores CEO en la actualidad de forma fulminante, es que puede que lo revelado se quede incluso corto, porque no es incapacidad o inutilidad, o mala praxis, parece que el despido iba más enfocado a la negligencia y al miedo.