Elon Musk, DeepMind o Google firman un compromiso de no apoyo a las armas con Inteligencia Artificial

Hoy, durante la Conferencia Conjunta sobre Inteligencia Artificial, el Instituto Future of Life anunció que más de 2.400 personas y 160 compañías y organizaciones han firmado un compromiso declarando que "ni participarán ni apoyarán el desarrollo, la fabricación, el comercio o el uso de productos letales con armas autónomas".

Los signatarios, que representan a 90 países, también piden a los gobiernos que aprueben leyes contra tales armas. Google DeepMind y la fundación Xprize se encuentran entre los grupos que se han unido, mientras que los cofundadores de Elon Musk y DeepMind, Demis Hassabis, Shane Legg y Mustafa Suleyman también han hecho la promesa.

 0

La promesa se produce cuando un puñado de empresas se enfrentan a reacciones violentas sobre sus tecnologías y sobre cómo las suministran a las agencias gubernamentales y los grupos encargados de hacer cumplir la ley.

Google ha sido criticado por su contrato con el Pentágono con su Proyecto Maven, que proporciona tecnología de inteligencia artificial a los militares para ayudarlos a marcar imágenes de drones que requieren una revisión humana adicional. Del mismo modo, Amazon enfrentó a críticas por compartir su tecnología de reconocimiento facial con las agencias de aplicación de la ley, mientras que Microsoft ha sido llamada para proporcionar sus servicios a Inmigración y Control de Aduanas (ICE).

 1

"Miles de investigadores de IA coinciden en que al eliminar el riesgo, la atribuibilidad y la dificultad de quitar vidas humanas, las armas letales autónomas podrían convertirse en poderosos instrumentos de violencia y opresión, especialmente cuando están vinculadas a sistemas de vigilancia y datos", dice el compromiso. Agrega que aquellos que lo firman están de acuerdo en que "la decisión de tomar una vida humana nunca debería delegarse en una máquina".

"Estoy emocionado de ver a los líderes de IA pasar de la conversación a la acción, implementando una política que hasta ahora los políticos no han logrado poner en práctica", dijo en un comunicado el presidente del Instituto Future of Life, Max Tegmark. "La IA tiene un enorme potencial para ayudar al mundo, si estigmatizamos y prevenimos su abuso. Las armas con Inteligencia Artificial que deciden matar a las personas de manera autónoma son tan repugnantes y desestabilizadoras como las armas biológicas, y deberían tratarse de la misma manera".

Google ya ha lanzado su propio conjunto de principios, cuyo propósito es guiar la ética de la compañía en la tecnología de inteligencia artificial. Su política establece que no diseñará ni desplegará una IA para su uso en armas, vigilancia o tecnología "cuyo propósito contraviene los principios ampliamente aceptados del derecho internacional y los derechos humanos".

Microsoft ha declarado que su trabajo con la ICE se limita al correo electrónico, calendario, mensajería y administración de documentos, y no incluye ninguna tecnología de reconocimiento facial. La compañía también está trabajando en un conjunto de principios rectores para su trabajo de reconocimiento facial.

En 2015, Elon Musk donó 10 millones de dólares al Future of Life Institute para un programa de investigación centrado en garantizar que la IA sea beneficiosa para la humanidad. Y el año pasado, Musk, Hassabis y Suleyman firmaron una carta del Future of Life Institute enviada a la ONU que buscaba la regulación de los sistemas de armas autónomas.

El compromiso firmado dice:

La Inteligencia Atificial (IA) está preparada para desempeñar un papel cada vez más importante en los sistemas militares. Existe una oportunidad y necesidad urgente para que los ciudadanos, los legisladores y los líderes distingan entre los usos aceptables e inaceptables de la IA.

En este sentido, nosotros, los abajo firmantes, estamos de acuerdo en que la decisión de tomar una vida humana nunca debería delegarse en una máquina. Hay un componente moral en esta posición que no debemos permitir que las máquinas tomen decisiones vitales para las cuales otros, o nadie, sean culpables.

También existe un poderoso argumento pragmático: las armas letales autónomas, seleccionar y atacar objetivos sin intervención humana, serían peligrosamente desestabilizador para cada país e individuo. Miles de investigadores de IA coinciden en que al eliminar el riesgo, la atribuibilidad y la dificultad de quitar vidas humanas, las armas autónomas letales podrían convertirse en poderosos instrumentos de violencia y opresión, especialmente cuando están vinculadas a sistemas de vigilancia y datos.

Además, las armas autónomas letales tienen características bastante diferentes de las armas nucleares, químicas y biológicas, y las acciones unilaterales de un solo grupo podrían desencadenar fácilmente una carrera de armamentos que la comunidad internacional carece de herramientas técnicas y sistemas de gobernanza global para gestionar. Estigmatizar e impedir una carrera armamentista de este tipo debería ser una alta prioridad para la seguridad nacional y mundial.

Nosotros, los abajo firmantes, hacemos un llamado a los gobiernos y líderes del gobierno para crear un futuro con fuertes normas internacionales, regulaciones y leyes contra las armas letales autónomas. Actualmente ausentes, optamos por mantenernos a un alto nivel: no participaremos ni apoyaremos el desarrollo, la fabricación, el comercio o el uso de armas letales autónomas. Solicitamos que las empresas y organizaciones tecnológicas, así como los líderes, los responsables de la formulación de políticas y otras personas, se unan a nosotros en esta promesa.

vía: Engadget

Artículos relacionados