El CEO de ChatGPT le dice al Senado de EE.UU que «La IA puede causar un daño significativo al mundo»
Estados Unidos va por detrás de Europa en lo que a regular la IA se refiere. Mientras que aquí estamos dando forma a la propuesta de Ley para la IA, donde ya tenemos las primeras bases, allí, en el Senado, los principales actores de la industria de la Inteligencia Artificial están declarando ante sus dirigentes y pidiendo regulación, porque según dicen, solo así se van a mitigar todos los riesgos que entraña. Y es que el CEO de OpenAI afirma que la IA puede causar un daño significativo.
Todo el mundo está poniendo el grito en el cielo, todos ven que esto se puede descontrolar y que una vez que pase, ya no habrá vuelta atrás. Por primera vez en la historia, una industria tecnológica puntera ha pedido declarar voluntariamente ante sus políticos para que lancen leyes y normas para acotar y encauzar una tecnología en la que ellos mismos invierten miles de millones de dólares.
Toda la tecnología que rodea la Inteligencia Artificial "puede salir bastante mal"
Suena casi a apocalíptico: una empresa pidiendo regulación de un sector por explotar que generará miles de millones de beneficios a futuro. Tremebundo como poco. El CEO de OpenAI, Sam Altman, creador de ChatGPT y sus modelos, testificó ayer con otros dirigentes de empresas ante el Senado de EE.UU. sobre los peligros potenciales de lo que está haciendo su industria.
Las declaraciones son reveladoras:
“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos de IA cada vez más poderosos”, dijo Altman. "Por ejemplo, el gobierno de EE. UU. podría considerar una combinación de requisitos de "licencia y prueba" para el desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades.
Además, dado que nos enfrentaremos a unas elecciones el próximo año y estos modelos están mejorando, creo que esta es un área importante de preocupación... Creo que alguna regulación sería bastante sabia sobre este tema. Me preocupa que la industria de la IA pueda causar un daño significativo al mundo".
Casi nada. Las elecciones donde salió elegido Donald Trump tuvieron controversia por todo el tema de fake news desde Rusia, ahora, Altman fija la mirada en la IA, posiblemente desde China, país donde no hay (ni parece que habrá) legislación alguna sobre esta tecnología.
IBM no lo tiene nada claro
“IBM urges congress to adopt a precision regulation approach to AI."@_ChristinaMont, IBM joins @sama, @OpenAI and @GaryMarcus at US Judiciary oversight hearing examining #AI policy and protections: https://t.co/KGRFitYMuL pic.twitter.com/taavluXBSU
— IBM Watson (@IBMWatson) May 16, 2023
Christina Montgomery, directora de privacidad y confianza de IBM, también tuvo su momento para declarar, y no fue mucho menos directa que Altman:
"IBM insta al Congreso a adoptar un enfoque de regulación con precisión para la IA", dijo Montgomery. "Esto significa establecer reglas para regir el despliegue de la IA en casos de uso específicos, sin regular la tecnología en sí. Se deben imponer reglas diferentes para diferentes riesgos, con las reglas más estrictas aplicadas a los casos de uso con los mayores riesgos para las personas y la sociedad".
Es decir, mayor riesgo de que la IA se descontrole o se haga un mal uso de ella, mayores reglas y más duras. Pero Montgomery fue más allá y habló de un tema tan controvertido como en hecho de engañar a las personas para que interactúen con sistemas de IA:
"Ninguna persona en ningún lugar debe ser engañada para que interactúe con un sistema de IA... La era de la IA no puede ser otra era de moverse rápido y romper cosas"
Aquí entran varios aspectos, como el hecho de que un usuario no sepa, por ejemplo, si este artículo es redactado por un servidor o por una IA. No especificarlo incurre en un posible engaño a las personas que lo estáis leyendo en este momento, por lo que IBM pide regularlo también (no, no soy una IA, ¿o sí?, quien sabe, no, en serio, de momento no lo soy, y toquemos madera).
La IA puede causar un daño significativo, las empresas son responsables
Humor aparte, volvamos a lo importante, porque es serio, y para finalizar tenemos a Gary Marcus, fundador de dos empresas de IA y profesor emérito de Ciencias Neuronales de la Universidad de New York, que criticó duramente, entre otras cosas, a Microsoft por el tema del chatbot de Sídney:
"Sídney claramente tenía problemas... Lo deberían haber retirado temporalmente del mercado y no lo hicieron", dijo Marcus. "Esa fue una llamada de atención para mí y un recordatorio de que incluso si tienes empresas como OpenAI que es una organización sin fines de lucro, otras personas pueden comprar esas empresas y hacer lo que quieran con ellas.
Tal vez tengamos un conjunto estable de actores ahora, pero la cantidad de poder que estos sistemas tienen para dar forma a nuestras opiniones y vidas es realmente significativa, y eso ni siquiera entra en los riesgos de que alguien pueda reutilizarlos deliberadamente para todo tipo de malos propósitos. Por ejemplo, la calidad del mercado de noticias en general va a declinarse a medida que AI escribe más noticias".
El senado también tiene su propia opinión, al menos, alguno de los Senadores
Dicho esto, solo uno de los Senadores presentes, Richard Blumenthal, se dignó a dar su opinión tras escuchar a todos los ponentes, y puede que esto siente una pequeña base para el futuro, así como la piedra angular de la nueva Ley que se estudiará en estos meses venideros:
"Se debería exigir a las empresas de IA que prueben sus sistemas, divulguen los riesgos conocidos y permitan el acceso de investigadores independientes. Hay lugares donde el riesgo de la IA es tan extremo que deberíamos imponer restricciones o incluso prohibir su uso, especialmente cuando se trata de invasiones comerciales de la privacidad con fines de lucro y decisiones que afectan los medios de vida de las personas.
No tiene sentido tratar de detener el desarrollo de la IA. El mundo no esperará, el resto de la comunidad científica mundial no se detendrá. Tenemos adversarios que avanzan y esconder la cabeza en la arena no es la respuesta”, dijo Blumenthal.
Sea como fuere, el Senador lleva parte de razón al menos, puesto que Europa sí que está del lado de EE.UU. en cuanto a la regulación y protección de empresas y personas, pero China y Rusia... Están en el lado opuesto del tablero y tienen el pie a fondo en el acelerador. Encontrar el camino para regular la IA es el reto, sin que cause daño alguno, la solución la conoceremos más adelante.