OpenAI forma un equipo de riesgo para evitar una superinteligencia rebelde

¿Cómo le podemos llamar a una inteligencia artificial con mejores capacidades que la actual? Pues OpenAI la ha bautizado como superinteligencia artificial. Según el creador de ChatGPT, su poder potencial es tal que requiere un control estricto de la misma. Ya sea a través de una regulación o contramedidas en forma de otras IA que vigilen que esta no se salga de control.

Por el momento, la inteligencia artificial, en cuanto a capacidad de cálculo y aprendizaje, se encuentra casi en pañales. Por lo que es mejor prevenir y empezar a crear una serie de contramedidas. Y es que al igual que ocurre con los seres humanos, donde nuestro cerebro va creciendo en capacidades mientras nos hacemos adultos y acumulamos experiencia, pues lo mismo ocurre con las capacidades en computación y el largo tiempo de aprendizaje. Gracias a ello se producirán modelos de IA en el futuro con capacidades que ahora no nos podemos imaginar. Esto es lo que OpenAI ha bautizado como superinteligencia artificial, y ya se encuentran desarrollando las contramedidas a sus increíbles capacidades.

OpenAI prepara contramedidas contra su superinteligencia artificial

Creador ChatGPT OpenAI IA Skynet superinteligencia

El concepto de la superinteligencia artificial hace referencia, según OpenAI, al nivel que hipotéticamente alcanzara la IA a finales de esta década. Se espera que sea mucho más inteligente que cualquier ser humano en cualquier área de experiencia y conocimiento. Si bien esto es por el momento pura ciencia ficción y propaganda encubierta, es en este punto donde los clásicos terrores de la ciencia ficción aparecen en el imaginario colectivo. La cosa se agrava si tenemos en cuenta la velocidad de despliegue de estas tecnologías y la lentitud de las regulaciones políticas.

Es por ello que, aunque falten varios años para que esto ocurra, OpenAI ya ha comenzado a ponerse la tirita en la herida antes de la herida y ha creado un equipo para asesorar en la regulación de la IA. El grupo de expertos estará liderado por Ilya Sutskever, científico jefe de OpenAI. Además, la empresa ha afirmado que utilizará el 20 % de su potencia de computación total a dicha iniciativa. ¿El objetivo de la misma? Asegurarse de la superinteligencia artificial sea segura y no termina siendo un peligro para los seres humanos.

La idea sería, por tanto, la creación de una inteligencia artificial paralela que haría de supervisora de la primera y que buscaría evitar que la superinteligencia artificial llegue a cruzar limites que pueden llegar a ser peligrosos en varios ámbitos. En todo caso, no sabemos cómo avanzará en los próximos años. Si bien ha sufrido un crecimiento exponencial en cuanto a sus capacidades, aún es pronto para predecir cuál será su capacidad. Pero, si lo que dice OpenAI sobre los avances en los próximos años es cierto, entonces más les vale que funcionen sus contramedidas.

La regulación de la IA se hace cada vez más necesaria

Regulación IA

El anuncio coincide con las propuestas nacidas en todo el mundo desde las diferentes instituciones gubernamentales para regular el uso de la inteligencia artificial. Algo con lo que OpenAI está de acuerdo, ya que en palabras del propio CEO de la compañía, la regulación de la IA es necesaria. En concreto, lo que más preocupa es como puede afectar el empleo de la IA en el ámbito laboral, la propagación de desinformación y en derechos de autor. Y es que estos tres puntos son los que más preocupan a los reguladores de todo el mundo.

Tened en cuenta que, a base de curación de contenido, una capacidad de cálculo creciente en los superordenadores y años de aprendizaje, es posible que en unos años tengamos expertos no humanos en materias delicadas. En concreto puras inteligencias artificiales acapararían diversos sectores. Y no de cosas banales, sino que nos podemos encontrar que el arquitecto de nuestra futura casa o el médico de cabecera pasen a ser meras IA altamente avanzadas en unos años. Sin un control adecuado, esto puede poner muchas vidas en peligro.