El Portal de las Tecnologías para la Innovación

Estados Unidos insta a que la IA no controle las armas nucleares

Nada de skynet por favor. Después de que Estados Unidos, Reino Unido y Francia prometieran un control exclusivamente humano de las armas nucleares, se instó a China y Rusia a seguir su ejemplo.

Estados Unidos ha instado a los gobiernos de Rusia y China a reflejar un compromiso notable sobre la inteligencia artificial (IA) y las armas nucleares.

Reuters informó que un alto funcionario estadounidense instó el jueves a China y Rusia a coincidir con las declaraciones de Estados Unidos, el Reino Unido y Francia de que sólo los humanos, y nunca la inteligencia artificial, tomarán decisiones sobre el despliegue de armas nucleares.

Se produce en medio de una preocupación constante por el impacto de la IA y las armas autónomas. En febrero, una carta abierta de un grupo no gubernamental llamado ‘The Elders’ (formado por figuras públicas notables) instó a los líderes mundiales a abordar los riesgos existenciales de la inteligencia artificial y el cambio climático.

Submarino HMS Trafalgar. Retirado de servicio en 2009.
Crédito de la imagen Desconocido

Sin Skynet

Ahora, según el informe de Reuters, el funcionario de control de armas del Departamento de Estado de EE. UU., Paul Dean, dijo en una sesión informativa en línea que Washington había asumido un “compromiso claro y fuerte” de que los humanos tenían control total sobre las armas nucleares, y agregó que Francia y Gran Bretaña habían hecho lo mismo. .

«Agradeceríamos una declaración similar de China y la Federación Rusa», dijo Dean, subsecretario adjunto principal de la Oficina de Control de Armas, Disuasión y Estabilidad.

«Creemos que es una norma extremadamente importante de comportamiento responsable y creemos que es algo que sería muy bienvenido en el contexto del P5», según informó, refiriéndose a los cinco miembros permanentes del Consejo de Seguridad de las Naciones Unidas (Estados Unidos, Reino Unido, Francia, Rusia y China).

Reuters señaló que los comentarios de Dean se producen cuando la administración Biden busca profundizar las discusiones separadas con China sobre la política de armas nucleares y el crecimiento de la inteligencia artificial.

El Ministerio de Defensa chino no respondió de inmediato a una solicitud de comentarios, informó Reuters.

conversaciones de estados unidos

Según se informa, la difusión de la tecnología de inteligencia artificial surgió durante amplias conversaciones entre el secretario de Estado estadounidense, Antony Blinken, y el ministro de Asuntos Exteriores de China, Wang Yi, en Beijing el 26 de abril.

Las dos partes acordaron celebrar sus primeras conversaciones bilaterales sobre inteligencia artificial en las próximas semanas, según informó Blinken, y agregó que compartirían puntos de vista sobre la mejor manera de gestionar los riesgos y la seguridad relacionados con la tecnología.

Como parte de la normalización de las comunicaciones militares, funcionarios estadounidenses y chinos reanudaron las discusiones sobre armas nucleares en enero, pero no se esperan negociaciones formales sobre control de armas en el corto plazo.

Se dice que China está ampliando sus capacidades de armas nucleares, pero en febrero instó a las mayores potencias nucleares a negociar primero entre sí un tratado de no ser el primero en utilizarlas.

Mientras tanto, el mundo es un lugar cada vez más peligroso, en medio de tensiones geopolíticas en curso sobre Ucrania y cuestiones de seguridad nacional.

En 2021, la Revisión Integrada de la Defensa del Reino Unido, por ejemplo, incluyó cambios sutiles sobre cuándo Gran Bretaña puede usar armas nucleares si es atacada por «tecnologías emergentes».

La Revisión indicó que el Reino Unido reserva la respuesta a un ataque nuclear para ataques de «tecnologías emergentes».

Preocupaciones por la IA

Ha habido una serie de advertencias sobre los peligros de la IA antes.

En una carta abierta de marzo de 2023, un grupo de expertos y ejecutivos en inteligencia artificial (IA) se unieron para instar a una pausa de seis meses en el desarrollo de sistemas más avanzados .

Esa carta había sido firmada por Steve Wozniak, cofundador de Apple; Elon Musk, director ejecutivo de SpaceX, Tesla y Twitter; investigadores de DeepMind; el peso pesado de la IA, Yoshua Bengio (a menudo denominado uno de los “padrinos de la IA”); y el profesor Stuart Russell, pionero de la investigación en este campo.

Tanto Elon Musk como Steve Wozniak , y otros, incluido el fallecido profesor Stephen Hawking, habían advertido previamente sobre los peligros de la IA.

De hecho, el profesor Hawking advirtió anteriormente que la IA podría significar el fin de la vida tal como la conocemos en el planeta Tierra. NetMedia, Inglaterra.TJ.Traducido al español

Artículos relacionados

Scroll al inicio