Caretas fuera; OpenAI trabaja con el Pentágono para mejorar la ciberseguridad: «La IA a nivel humano está muy cerca»
Dicen los términos de la compañía, a día de hoy, que no pueden usar la tecnología referente a su IA para desarrollar armas, pero, ¿puede ser la propia IA una de ellas? El problema de ponerse la careta de la moralidad es que dura poco tiempo, las "gomillas" terminan cediendo y dan paso a la verdadera cara de aquellos que están usando la tecnología para atacar y defenderse. Por eso, tras terminar la prohibición de uso militar, que no de armas como decíamos, OpenAI confirma que trabaja ya con el pentágono y anticipa oficialmente en Davos que la IA General está bastante cerca.
Tres noticias que se leen mejor juntas, y una reflexión que sacará cada uno de vosotros por separado, pero esto, sin lugar a dudas, es una nueva carrera que vuelve a mezclar tecnología, ejércitos y geopolítica. ¿El fin? Atacar, defenderse o simplemente disuadir, pero lo que hoy es una realidad es que la mayor empresa en desarrollo de IA trabaja oficialmente para Biden.
OpenAI se une al ejército estadounidense, ¿ChatGPT para el pentágono? Evidentemente no solo eso...
Hace solo unos días OpenAI terminó, silenciosamente todo hay que decirlo, con su prohibición para el uso militar en sus herramientas de IA. Casualidad cargada de sarcasmo, pensarán algunos, y sin duda van en la dirección correcta, porque igualmente, hay políticas dentro de la empresa más grande de LLM del mundo que no se han erradicado, como:
- "No se debe usar nuestro servicio para dañarnos a nosotros mismos o a otros”.
- "No debemos desarrollar o usar armas".
Como todos los muros terminan cayendo tarde o temprano, y al contribuyente y al mundo hay que darle la estocada poco a poco, suave, para que apenas sienta dolor mientras se desangra, el objetivo primigenio de OpenAI va a ser el de ayudar a desarrollar capacidades de ciberseguridad al Pentágono mediante IA.
Esto responde a los ciberataques que están sufriendo desde China, los cuales se consideran de nueva generación y están poniendo en jaque a todo el sistema militar y de defensa de EE.UU.. Porque otra cosa no, pero China tiene muy claro lo que tiene y debe hacer, y usará todo lo que esté en su mano para hacerlo, como el propio hardware yanqui traído desde NVIDIA.
No hay que saber sumar para entender que, actualmente, ningún grupo de hackers tiene el potencial económico para comprar, fuera o dentro de China, antes o después, miles de GPU para IA, y desarrollar LLM en tiempo récord de manera que una IA se infiltre eficientemente en los sistemas americanos. Por lo tanto, más que rumores habría confirmaciones de que las empresas chinas tienen acuerdos con grupos de hackers para atacar EE.UU. y todo occidente, donde no se libra nadie como dijeron los Five Eyes.
OpenAI elimina parte de su letra pequeña para no romper sus normas
Un portavoz de OpenAI respondió a diversas preguntas sobre el porqué de los cambios en la política de OpenAI y de cómo la letra pequeña ha sido borrada mágicamente de una parte muy conveniente:
"Nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades. Sin embargo, hay casos de uso de seguridad nacional que se alinean con nuestra misión.
Ya estamos trabajando con DARPA (Departamento de Defensa Americana) para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura crítica y la industria. No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo el término 'militar' en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones".
Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, enfatizó en el WEF estas palabras:
"Debido a que anteriormente teníamos lo que era esencialmente una prohibición general sobre el uso militar, mucha gente pensó que eso prohibiría muchos de estos casos de uso, que la gente cree que están muy alineados con lo que queremos ver en el mundo".
74 elecciones presidenciales en el mundo, incluida la de EE.UU.
La información falsa corre sin control por la red. Redes sociales, chats, foros, webs, plataformas de contenido, estamos bombardeados de información que, en la gran mayoría de casos, es falsa, o como mínimo está sesgada.
Hay proyectos diversos para combatir esto con IA, por ejemplo, el de Fake Face de Intel para los vídeos, y otros que hemos ido viendo, pero a poco que uno indague no le costará mucho encontrar teorías de la conspiración varias, de hecho, hay una parte de la población que se las cree.
Ahora, esta idea trasladémosla a unas elecciones generales, pues bien, hacedlo a las 74 elecciones generales que habrá este 2024, de las cuales, 27 son en la UE y 47 están por todo el mundo, como decimos, incluidas las de EE.UU.. Pues bien, Microsoft, accionista mayoritario de OpenAI ya ha dejado claro que realizará una estrategia de protección electoral de cinco pasos en "Estados Unidos y otros países donde se llevarán a cabo elecciones críticas en 2024".
¿Quieres más? Altman ayer en el Foro de Davos reiteró la idea de Microsoft diciendo que "hay mucho en juego en estas elecciones". ¿Objetivo? Dejar a Rusia y China fuera de ellas, que no ocurra como con Trump, y de paso, contrarrestar el bombardeo de hackeos que se están dando a empresas y entidades públicas.
Altman avisa: "La IA general al nivel humano no está tan lejos", ¿la excusa para que OpenAI trabaje con el Pentágono?
Ya hablamos de los planes de OpenAI en secreto con sus dos proyectos, los cuales os animamos a leer, porque van a propósito de lo que en el mismo Foro de Davos ha dejado caer el CEO de OpenAI. Desde Suiza, Altman ha comentado que la llamada Inteligencia Artificial General (AGI) podría desarrollarse en un "futuro bastante cercano".
Es decir, que no está tan lejos, por lo que es más que probable que el proyecto Tigris haya avanzado. En cualquier caso, Altman también dijo algo realmente interesante, y es que para lograr la AGI se necesita un avance energético, ya que la potencia de cálculo necesaria supondrá una cantidad de aceleradores y tarjetas gráficas mucho más alta, con lo que conlleva en consumo de W/h:
"No hay manera de llegar allí sin un gran avance. Esto nos motiva a invertir más en la fusión nuclear".
¿Es la fusión nuclear otro de los objetivos de OpenAI para con su IA? Es más que probable, de hecho, cabe la posibilidad de que DARPA y OpenAI terminen trabajando en proyectos público o privados para llevar la Fusión nuclear a escala y estable, logrando la supuesta energía infinita para la humanidad.