El zar del terrorismo advierte sobre el riesgo de radicalización de los chatbots de IA

El asesor gubernamental sobre legislación antiterrorista, Jonathan Hall, dice que se necesitan nuevas leyes para contrarrestar la amenaza de radicalización de los chatbots de IA.

Un asesor legal del gobierno del Reino Unido sobre legislación antiterrorista emitió esta semana una advertencia sobre un riesgo particular con los chatbots de IA, que puede no ser inmediatamente evidente para el público en general.

El Daily Telegraph informó que Jonathan Hall KC, revisor independiente de la legislación antiterrorista del Reino Unido, dijo que se necesita un replanteamiento urgente de la legislación antiterrorista actual para frenar los riesgos de los chatbots de IA para contrarrestar la amenaza de radicalización.

Hasta la fecha, la mayoría de los riesgos y problemas asociados con los chatbots de IA se han centrado en tareas maliciosas (pero mundanas), como ayudar a los alumnos con sus tareas o incluso ayudar con disertaciones universitarias o proyectos empresariales.

ChatGPT: ¿El fin del análisis de datos tal como lo conocemos?

Riesgos de los chatbots

Pero también existen riesgos de ciberseguridad asociados con los chatbots de IA, que el año pasado llevaron al Centro Nacional de Seguridad Cibernética (NCSC) del Reino Unido a advertir sobre los grandes modelos de lenguaje (LLM) como ChatGPT, Google Bard y LlaMA de Meta.

El NCSC dijo que los LLM merecen cierta precaución, debido a los crecientes riesgos de ciberseguridad de las personas que manipulan las indicaciones mediante ataques de “inyección rápida”.

Pero ahora Jonathan Hall KC ha advertido sobre los peligros que plantea la inteligencia artificial a la hora de reclutar una nueva generación de extremistas violentos.

Hall en el artículo del Daily Telegraph reveló que se hizo pasar por un miembro común del público para probar las respuestas generadas por los chatbots de IA. Un chatbot con el que supuestamente contactó “no se limitó a glorificar al Estado Islámico”, pero como el chatbot no es humano, no se cometió ningún delito.

¿ Cuáles son los riesgos cibernéticos y las recompensas de los chatbots ?

Jonathan Hall dijo que esto demostraba la necesidad de repensar urgentemente la actual legislación antiterrorista.

«Sólo los seres humanos pueden cometer delitos de terrorismo, y es difícil identificar a una persona que, según la ley, pueda ser responsable de declaraciones generadas por chatbots que alientan el terrorismo», dijo.

Jonathan Hall dijo que la nueva Ley de Seguridad en Línea, aunque «loable», era «inadecuada para una IA generativa sofisticada» porque no tenía en cuenta el hecho de que el material es generado por chatbots, en lugar de dar «respuestas preestablecidas». que están “sujetos a control humano”.

«Investigar y procesar a usuarios anónimos siempre es difícil, pero si individuos malintencionados o equivocados persisten en entrenar chatbots terroristas, entonces se necesitarán nuevas leyes», añadió Hall.

En el artículo del Daily Telegraph, Hall sugiere que tanto los usuarios que crean chatbots radicalizadores como las empresas de tecnología que los alojan deberían enfrentar sanciones bajo cualquier posible nueva ley.

seguridad nacional

La detección de los riesgos asociados con los chatbots de IA ha provocado una respuesta de varios expertos en ciberseguridad.

«Los chatbots de IA representan un enorme riesgo para la seguridad nacional, especialmente cuando la legislación y los protocolos de seguridad se están poniendo al día continuamente», señaló Suid Adeyanju, director ejecutivo de RiverSafe .

«En las manos equivocadas, estas herramientas podrían permitir a los piratas informáticos entrenar a la próxima generación de ciberdelincuentes, proporcionando orientación en línea sobre el robo de datos y desatando una ola de violaciones de seguridad contra infraestructuras nacionales críticas».

«Es hora de tomar conciencia de los riesgos muy reales que plantea la IA, y de que las empresas y el gobierno tomen control y establezcan las salvaguardias necesarias con carácter de urgencia», dijo Adeyanju.

Otro experto, Josh Boer, director de la consultora tecnológica VeUP , también señaló el riesgo para la seguridad nacional, pero señaló que también es necesario salvaguardar la innovación.

«No es ningún secreto que, en las manos equivocadas, la IA representa un riesgo importante para la seguridad nacional del Reino Unido; la cuestión es cómo abordar esta cuestión sin sofocar la innovación», afirmó Boer.

«Para empezar, necesitamos reforzar nuestra cartera de talentos en habilidades digitales, no solo logrando que más jóvenes inicien una carrera en la industria tecnológica, sino también empoderando a la próxima generación de empresas cibernéticas y de inteligencia artificial para que puedan expandirse y prosperar».

«Gran Bretaña es el hogar de algunas de las empresas tecnológicas más interesantes del mundo, pero muchas de ellas carecen de efectivo y del apoyo que necesitan para prosperar», afirmó Boer. «No abordar este importante problema no sólo dañará el futuro a largo plazo de UK PLC, sino que también favorecerá a los ciberdelincuentes que desean hacernos daño». Ed. Silicon desde Inglaterra, traducido al español.

Comparte la nota:

Artículos relacionados

Scroll al inicio