La IA se enfrenta a su «momento Oppenheimer» con la creación de robots asesinos de la humanidad

La inteligencia artificial se ha convertido en un tema candente, debido a que aporta tanto cosas buenas como malas. Podemos considerarla una herramienta que ha cambiado la forma en la que hacemos las cosas, debido a que precisamente entrenamos a la inteligencia artificial para que haga cosas por cuenta propia. Si bien podemos progresar en cuanto a productividad y se abre un mundo de posibilidades, también hay que tener en cuenta los puntos negativos. Hay sectores donde la IA puede ser muy peligrosa y su uso como herramienta militar es uno de ellos, un tema que ha surgido en la reunión de más de 100 países en Viena, donde se ha llegado a catalogar como la que provocará un nuevo suceso Oppenheimer.

Cuando la IA generativa llegó a nuestras vidas a partir de Midjourney y otras opciones, pudimos ver que se podían generar imágenes realistas de todo tipo. La inteligencia artificial se ha entrenando con millones de imágenes y arte de personas humanas para así acabar simulándolo lo mejor que puede. Debido a la IA generativa y la facilidad que ofrece a la hora de crear contenido, cualquiera puede acabar creando imágenes y así es como se ha llenado Internet de estas.

El ministro austríaco de Asuntos Exteriores considera que la IA protagonizará el "momento Oppenheimer" de esta generación

IA mala amenaza humanidad

Al principio las imágenes creadas por IA no parecían muy reales, pero a día de hoy tenemos muchos casos donde acaban engañando y promoviendo la desinformación. También se han podido realizar deepfakes que han provocado disputas de todo tipo. Esto es un tanto problemático, pero no hemos llegado a ver un uso que sería mucho más devastador para la IA. Ya vimos a Elon Musk temiendo por el futuro de la humanidad y prometiendo sacrificarse a sí mismo si creaba una IA peligrosa. Muchos otros han hablado del peligro de una IA con malas intenciones y el daño que podría causarnos.

Ahora esos temores empiezan a tomar forma, al menos si vemos la situación a nivel mundial. Más de 100 países se reunieron el lunes en Viena para poder hablar sobre como pueden controlar la IA en el mundo militar. Según Alexander Schallenberg, ministro austríaco de Asuntos Exteriores, la IA está siendo partícipe del "momento Oppenheimer de esta generación", haciendo referencia a J. Robert Oppenheimer, aquel que ayudó a crear la bomba atómica en 1945.

Varios países de todo el mundo invierten en IA para la defensa y como herramienta militar

Yo Robot IA

Jaan Tallinn, uno de los principales inversores de Google DeepMind, mencionó que el objetivo de Silicon Valley podría no beneficiar al resto de la humanidad. Empezamos a ver aires de egoísmo y cierto peligro, pues hay que tener en cuenta que los Gobiernos de todo el mundo han empezado a implementar a la IA como método de defensa o como herramienta de uso militar. Tenemos así ejemplos como el Pentágono que está invirtiendo miles de millones de dólares en inteligencia artificial o la UE, que pagó a Thales SA para crear una base de datos para evaluar los objetivos en el campo de batalla.

Una revista de Tel Aviv llamada +972 Magazine informó sobre una supuesta IA creada por Israel denominada "Lavender", la cual tenía como objetivo buscar nuevos objetivos para asesinarlos. Lo que antes veíamos como ciencia ficción parece que se va acercando a la realidad, con declaraciones como las del físico Anthony Aguirre, que dijo que el futuro de los robots de matanza estaba aquí y se requeriría realizar un acuerdo para controlar lo inevitable.