Representantes y empresas de 28 países, entre ellos EE.UU. y China, así como la UE, firmaron el pacto que pretende atajar los riesgos de los llamados modelos fronterizos de IA.
El miércoles se alcanzó un acuerdo «pionero en el mundo» sobre la seguridad de la inteligencia artificial (IA) en una cumbre mundial celebrada en el Reino Unido.
Expertos en tecnología, líderes mundiales y representantes de 27 países y de la Unión Europea acudieron a la Cumbre sobre Seguridad de la Inteligencia Artificial, que se celebra hasta este jueves en Bletchley Park, antaño cuna de los descifradores de códigos de la Segunda Guerra Mundial.
Estas son las principales conclusiones de la primera jornada.
El acuerdo sobre IA
La Declaración de Bletchley sobre la seguridad de la IA es una declaración firmada por representantes y empresas de 28 países, entre ellos Estados Unidos, China y la UE. Su objetivo es hacer frente a los riesgos de los llamados modelos fronterizos de IA: los grandes modelos lingüísticos desarrollados por empresas como OpenAI.
El Gobierno británico lo calificó de acuerdo «pionero en el mundo» entre los firmantes, cuyo objetivo es identificar los «riesgos de seguridad de la IA de interés compartido» y crear «políticas respectivas basadas en el riesgo entre los países».
Sin embargo, no está claro cómo se desarrollarán exactamente los acuerdos.
La secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, declaró que el acuerdo era un «logro histórico» y que «sienta las bases para los debates de hoy».
El Gobierno británico también anunció la celebración de futuras cumbres sobre seguridad de la IA.
Corea del Sur pondrá en marcha otra «minicumbre virtual» sobre IA en los próximos seis meses y Francia acogerá la próxima cumbre presencial sobre IA el año que viene.
Sin embargo, los expertos sostienen que el acuerdo no va lo suficientemente lejos.
«Reunir a las grandes potencias para que respalden principios éticos puede considerarse un éxito, pero hay que emprender rápidamente la elaboración de políticas concretas y mecanismos de rendición de cuentas», declaró a Euronews Next Paul Teather, director general de la empresa de investigación sobre IA AMPLYFI.
«Una terminología imprecisa da pie a interpretaciones erróneas, mientras que confiar únicamente en la cooperación voluntaria es insuficiente para poner en marcha buenas prácticas reconocidas a nivel mundial en torno a la IA».
Principales ponentes
El multimillonario empresario tecnológico Elon Musk llegó a la cumbre y se mantuvo en silencio durante las conversaciones, pero dijo que el encuentro busca establecer un «árbitro» para las empresas tecnológicas.
«Creo que lo que pretendemos aquí es establecer un marco para que haya al menos un árbitro independiente que pueda observar lo que hacen las empresas líderes en IA y al menos dar la voz de alarma si tienen dudas», declaró a la agencia de noticias PA.
«Creo que lo que pretendemos aquí es… primero, establecer que debería haber una función de árbitro, creo que debería haberla. Y, luego, ya sabes, ser cautelosos en cómo se aplican las regulaciones, para no ir a la carga con regulaciones que inhiban el lado positivo de la IA», prosiguió.