Carta abierta insta a tomar medidas para abordar la IA y otros riesgos globales

Carta abierta del grupo ‘The Elders’ insta a los líderes mundiales a abordar los riesgos existenciales de la inteligencia artificial y el cambio climático

El grupo no gubernamental llamado ‘The Elders’ publicó esta semana una carta abierta sobre los riesgos existenciales que enfrenta el mundo.

El grupo, fundado por el ex presidente sudafricano Nelson Mandela, y que incluye a ex líderes políticos y figuras públicas como Ban Ki-moon, Helen Clark, Jimmy Carter, Richard Branson, Annie Lennox, Charles Oppenheimer, Gordon Brown y muchos otros, firmó una carta abierta en la que pidieron “a los líderes mundiales que trabajen juntos para abordar estas amenazas existenciales de manera más decisiva”.

Identificaron los crecientes peligros de la crisis climática, las pandemias, las armas nucleares y la inteligencia artificial no gobernada, como los riesgos existenciales que enfrenta el mundo.

inteligencia artificial IA

Carta abierta

«Nuestro mundo está en grave peligro», afirma la carta. “Nos enfrentamos a un conjunto de amenazas que ponen en riesgo a toda la humanidad. Nuestros líderes no están respondiendo con la sabiduría y la urgencia necesarias”.

La carta fue publicada el jueves y compartida con gobiernos de todo el mundo.

«Los firmantes de esta carta piden a los líderes mundiales que trabajen juntos para abordar estas amenazas existenciales de manera más decisiva», afirmó.

“En un año en el que la mitad de la población adulta del mundo se enfrenta a elecciones, instamos a todos aquellos que aspiran a cargos públicos a adoptar un enfoque nuevo y audaz. Necesitamos un liderazgo con visión de largo plazo por parte de quienes toman decisiones que comprendan la urgencia de las amenazas existenciales que enfrentamos y crean en nuestra capacidad para superarlas”.

La carta pide a los gobiernos y líderes que:

  1. Pensar más allá de los ciclos políticos de corto plazo y ofrecer soluciones para las generaciones actuales y futuras.
  2. Reconocer que las respuestas duraderas requieren compromiso y colaboración por el bien del mundo entero.
  3. Mostrar compasión por todas las personas, diseñando políticas sostenibles que respeten que todos nazcan libres e iguales en dignidad y derechos.
  4. Defender el Estado de derecho internacional y aceptar que los acuerdos duraderos requieren transparencia y rendición de cuentas.
  5. Comprometerse con una visión de esperanza en el futuro compartido de la humanidad, no jugar con su pasado dividido.

“Estos principios de liderazgo a largo plazo pueden informar cambios urgentes en las políticas”, afirma la carta. “Los gobiernos pueden ponerse a trabajar ahora para acordar cómo financiar la transición hacia un futuro seguro y saludable impulsado por energía limpia, relanzar conversaciones sobre control de armas para reducir el riesgo de una guerra nuclear, salvar millones de vidas mediante la conclusión de un tratado equitativo contra la pandemia y comenzar construir la gobernanza global necesaria para hacer de la IA una fuerza para el bien, no un riesgo desbocado”.

La carta instaba a los líderes a cambiar de dirección.

«Los mayores riesgos que enfrentamos no pueden ser abordados por ningún país actuando solo», advirtieron. “Sin embargo, cuando las naciones trabajan juntas, todos estos desafíos pueden abordarse, por el bien de todos nosotros”.

«A pesar de la gravedad de estas amenazas existenciales, la esperanza permanece», afirma la carta. “Nuestro mejor futuro aún puede estar por delante. Hacemos un llamado a los líderes para que adopten una visión a largo plazo y demuestren el coraje para guiarnos hacia ese futuro mejor”.

Otras llamadas

Ha habido otras cartas abiertas y advertencias sobre los peligros de la IA antes.

Uno de los más recientes fue una carta abierta de marzo de 2023, cuando un grupo de expertos y ejecutivos en inteligencia artificial (IA) se unieron para instar a una pausa de seis meses en el desarrollo de sistemas más avanzados .

Esa carta había sido firmada por Steve Wozniak, cofundador de Apple; Elon Musk, director ejecutivo de SpaceX, Tesla y Twitter; investigadores de DeepMind; el peso pesado de la IA, Yoshua Bengio (a menudo denominado uno de los “padrinos de la IA”); y el profesor Stuart Russell, pionero de la investigación en este campo.

Tanto Elon Musk como Steve Wozniak , y otros, incluido el fallecido profesor Stephen Hawking, habían advertido previamente sobre los peligros de la IA .

De hecho, el profesor Hawking advirtió anteriormente que la inteligencia artificial podría significar el fin de la vida tal como la conocemos en el planeta Tierra. Fuente:NetMedia-Inglaterra(TJ), traducido al español

Comparte la nota:

Artículos relacionados

Scroll al inicio