El Portal de las Tecnologías para la Innovación

¿Puede la IA influir en los resultados electorales?

La inteligencia artificial (IA) puede ser un arma de desinformación masiva, pero un informe reciente ha demostrado que hasta ahora su impacto ha sido limitado

Este año, los votantes de casi 100 países, incluidos Taiwán, Estados Unidos y Senegal, acudieron a las urnas y la IA se utilizó a menudo durante las campañas electorales. Esta tecnología, cuando se utiliza de forma maliciosa, como a través de deepfakes y chatbots, erosiona la confianza de los ciudadanos en la información proporcionada por los medios de comunicación, ya sea en televisión, en línea o en las redes sociales. Los programas impulsados ​​por IA han afectado claramente a la fiabilidad de la información que recibimos, pero ¿ha tenido eso un impacto en los resultados electorales? Un equipo de investigadores de la Iniciativa para la Innovación en los Medios (IMI) con sede en la EPFL realizó un estudio para investigar la influencia que tuvo la IA en las elecciones de todo el mundo en 2024. Los hallazgos aparecen en el primer número de la revista Décryptage de IMI (solo en francés). El número fue escrito por el periodista suizo Gilles Labarthe en asociación con Mounir Krichane y Julie Schüpbach, ambos de IMI, y Christophe Shenk, presidente del Comité Científico de IMI y jefe de coordinación de noticias digitales de la empresa de radiodifusión suiza RTS.

Personajes políticos resucitados

Los investigadores trabajaron con expertos locales para analizar las distintas campañas electorales y sus resultados. Descubrieron que los programas impulsados ​​por IA tuvieron un impacto marginal y no inclinaron las elecciones en un sentido u otro. Sin embargo, el estudio sí encontró que la difusión de contenido manipulado, impulsada por algoritmos, dividió aún más la opinión política y creó un clima generalizado de desconfianza. Por ejemplo, en las campañas electorales de Estados Unidos y Suiza se utilizaron deepfakes (vídeos alterados digitalmente para que parecieran mostrar personas reales). Mientras tanto, la IA generativa alcanzó un nivel completamente nuevo en India e Indonesia, donde los programadores resucitaron a figuras políticas mediante la creación de avatares destinados a influir en los votantes.

“La tecnología por sí sola no será suficiente”, afirma. “Los usuarios humanos son el eslabón débil”.Touradj Ebrahimi, director del grupo de procesamiento de señales multimedia de la EPFL

Los autores del estudio subrayan que el uso de contenidos manipulados digitalmente con fines propagandísticos no es nada nuevo; la inteligencia artificial no ha hecho más que intensificar esta práctica. La producción a gran escala y la rápida difusión de contenidos falsos (ya sea en formato de vídeo, imagen o texto) durante las campañas electorales han socavado la confianza de los ciudadanos. Los autores también señalan un vacío regulatorio que ha permitido que estos contenidos circulen libremente.

En una entrevista para la revista, el profesor Touradj Ebrahimi, director del grupo de procesamiento de señales multimedia de la EPFL, afirma que los deepfakes están creando desafíos técnicos, sociales y éticos sin precedentes. «Es un juego del gato y el ratón entre los creadores de tecnología de inteligencia artificial para generar deepfakes y los desarrolladores de software para detectarlos». Su grupo de investigación está trabajando para desarrollar sistemas para identificar y limitar la difusión de contenido manipulado (ver más abajo).

Un esfuerzo colectivo

La revista IMI ofrece una visión general de los riesgos que supone la inteligencia artificial para las campañas electorales. También ofrece recomendaciones concretas de científicos, otros expertos y profesionales de los medios de comunicación para reducir el impacto de la desinformación y sugiere medidas que pueden adoptar los ciudadanos. Una de las recomendaciones es implementar sistemas de detección y rastreo de contenidos falsos, como los que está desarrollando el grupo de Ebrahimi.

La revista destaca la importancia de introducir regulaciones internacionales y exigir responsabilidades a los medios de comunicación. Por su parte, Ebrahimi afirma que será esencial fomentar la verificación colaborativa de los hechos y promover la educación como un poderoso aliado en la lucha contra la desinformación. “La tecnología por sí sola no será suficiente”, afirma. “Los usuarios humanos son el eslabón débil: tenemos que concienciarlos de los riesgos asociados a las noticias falsas y darles recursos para verificar las fuentes de la información que reciben”.

Por último, la revista destaca el papel crucial que pueden desempeñar los gobiernos, las empresas y la sociedad civil para lograr que el espacio digital sea ético y seguro. Esto requerirá un esfuerzo colectivo para restablecer la confianza en el proceso democrático a medida que la IA se vuelve cada vez más frecuente.

Para ganar la batalla contra la desinformación no basta con desarrollar la tecnología adecuada, sino también, como explica la revista IMI, un esfuerzo concertado entre científicos e ingenieros, gobiernos, empresas y ciudadanos. Juntos podemos hacer que la información vuelva a ser fiable y restablecer la confianza en el proceso democrático.

La EPFL, con su experiencia única en la lucha contra los contenidos manipulados
En el grupo de procesamiento de señales multimedia del profesor Ebrahimi, los ingenieros están trabajando para desarrollar una tecnología que pueda detectar y frenar eficazmente la difusión de contenidos manipulados. Esto incluye la implementación del estándar JPEG Trust para que se pueda verificar la autenticidad de las imágenes desde el momento de su creación hasta su publicación.»No hay una fórmula mágica», dice Ebrahimi. «En lugar de eso, tendremos que combinar varios indicadores para generar confianza y reducir los riesgos». Este enfoque proactivo podría implicar, por ejemplo, agregar firmas digitales al contenido, para que los usuarios puedan rastrearlo y detectar cualquier cambio no autorizado.El grupo de Ebrahimi también está estudiando el uso de redes generativas adversarias (GAN), que son redes en las que dos programas de aprendizaje automático compiten entre sí: uno produce contenido falso mientras que el otro intenta detectarlo. Las GAN pueden mejorar la capacidad de la tecnología de detección para detectar incluso los deepfakes más sofisticados, lo que proporciona una herramienta valiosa para los medios de comunicación en línea y otras plataformas de contenido.

Fomentar la innovación en los medios digitales
El IMI fue fundado en 2018 por organizaciones del sector público y privado para promover la innovación digital en los medios. Entre sus miembros se encuentran la EPFL, la SRG SSR y las universidades de Ginebra, Lausana y Neuchâtel. La iniciativa cuenta con el apoyo de la Oficina Federal de Comunicaciones de Suiza. M. A. Traducido al español

Artículos relacionados

Scroll al inicio