El Portal de las Tecnologías para la Innovación

Definiendo un camino hacia una IA confiable

La inteligencia artificial generativa (GenAI) presenta diversos tipos de sesgos que reflejan las deficiencias humanas. ¿Cómo podemos evitar ser engañados?

¿Qué es exactamente la «inteligencia artificial fiable»? Por ahora, no existe una definición clara y universalmente aceptada, aunque la Ley de IA de la Unión Europea va un paso más allá con sus siete principios de IA fiable: agencia y supervisión humanas; robustez y seguridad técnicas; privacidad y gobernanza de datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental; y rendición de cuentas.

Sin embargo, aplicar estos principios es mucho más fácil de decir que de hacer, especialmente cuando entran en juego sesgos, ya sean ideológicos, políticos, religiosos, raciales o de género, o, en general, cognitivos. «Los sesgos no son nada nuevo; como humanos, estamos llenos de ellos», afirma Olivier Crochat, director del Centro para la Confianza Digital (C4DT) de la EPFL . «La IA generativa debería permitir plantear esta cuestión, tanto para quienes desarrollan los programas como para quienes los utilizan».

“Los resultados sesgados de un modelo podrían acabar utilizándose para entrenar otros modelos, agravando así el sesgo”, afirma. En otras palabras, los algoritmos entrenados con datos sesgados simplemente reproducirán la distorsión. Y dado que estos algoritmos se utilizan cada vez más para tareas como la toma de decisiones de contratación, la revisión de solicitudes de hipotecas y el reconocimiento facial, podrían tener un impacto directo en la vida de las personas. La Ley de IA de la UE especifica que, para ser verdaderamente fiable, un programa GenAI no solo debe ser transparente y seguro, sino también estar diseñado para detectar y corregir sesgos.

Una preocupación es que los algoritmos entrenados con noticias falsas, teorías de conspiración, sesgos, propaganda e información censurada simplemente amplificarán ese ruido y se convertirán en armas de desinformación masiva. «En teoría, los algoritmos no empeorarán el contenido de lo que ya es», dice Crochat, «sin embargo, si no rectificamos este problema, continuará, y una vez amplificado a gran escala, podría tener consecuencias desastrosas». En este sentido, un informe reciente de la Iniciativa para la Innovación en los Medios (IMI) con sede en la EPFL es alentador. El estudio de IMI examinó varias elecciones celebradas en 2024, un año en el que casi la mitad de los ciudadanos del mundo acudieron a las urnas. Descubrió que los programas impulsados ​​por IA tuvieron solo un impacto marginal y no inclinaron las elecciones en un sentido u otro. Sin embargo, el estudio sí encontró que la difusión de contenido manipulado, impulsada por algoritmos, dividió aún más la opinión política y creó un clima generalizado de desconfianza.

En teoría, los algoritmos no empeorarán el contenido de lo que ya es, sin embargo, si no rectificamos este problema, continuará y, una vez amplificado a gran escala, podría tener consecuencias desastrosas.Olivier Crochat, director del Centro para la Confianza Digital (C4DT) de la EPFL

Responsabilidad compartida

Los autores enfatizan que el uso de contenido manipulado digitalmente con fines propagandísticos no es nada nuevo; GenAI solo ha magnificado esta práctica. «Es un juego del gato y el ratón entre los creadores de tecnología de IA para generar deepfakes y los desarrolladores de software para detectarlos», afirma el profesor Touradj Ebrahimi, experto en procesamiento de señales multimedia de la EPFL. Su grupo de investigación trabaja en el desarrollo de sistemas para identificar y limitar la propagación de contenido manipulado. El director de C4DT añade: «Al final, todo se reduce a la programación informática: si sabemos exactamente cuál es el problema, podemos encontrar maneras de resolverlo. Y el resultado es que, si corregimos un sesgo en un modelo de IA, desaparecerá instantáneamente para millones de usuarios».

Sin embargo, esto no resta importancia a la cuestión de la IA confiable. La mayoría de los programas GenAI son desarrollados y alojados por empresas con ánimo de lucro que transfieren parte de la responsabilidad a los usuarios. Esto plantea cuestiones éticas y legales sobre el papel que deben desempeñar los valores sociales en la gobernanza de la IA.

“Si bien, en última instancia, el uso de la IA es responsabilidad de los usuarios, se pueden, y se deben, implementar mecanismos regulatorios para reducir el riesgo de uso malicioso premeditado o accidental, de forma similar al bloqueo de seguridad de las armas o el tapón de seguridad de los frascos de medicamentos”, afirma Sabine Süsstrunk, jefa del Laboratorio de Representación Visual de la EPFL y presidenta del Consejo Científico Suizo. “Se necesitan estrategias probadas, como la certificación, la regulación y la educación, para garantizar un rendimiento mínimo aceptable, aclarar las responsabilidades y aumentar la concienciación pública”.

Johan Rochel, profesor de ética y derecho de la IA en la EPFL y codirector del Laboratorio de Ética de la Innovación (ethix), explica que la responsabilidad no es un concepto binario, sino algo que debe distribuirse a lo largo de toda la cadena de valor. Cada decisión que toman los programadores al desarrollar un sistema de IA implica decisiones éticas y compensaciones que deben evaluarse mucho antes de que sus consecuencias sean visibles.

Más no siempre es mejor

Otro problema importante se relaciona con los enormes conjuntos de datos que se utilizan para entrenar algoritmos GenAI. Muchos de estos conjuntos de datos provienen de empresas, con poca transparencia sobre su origen. Las grandes empresas tecnológicas suelen obviar consideraciones éticas cuando se les pregunta sobre la propiedad intelectual o la representatividad de sus conjuntos de datos, argumentando que cuantos más datos puedan incorporar a sus algoritmos, mejor será el rendimiento de sus programas de IA.

“Pero más no siempre es mejor; lo importante es tener datos de calidad”, afirma Rochel. “El volumen no debería priorizarse sobre la ética”. Süsstrunk coincide: “Si los datos están sujetos a derechos de autor, deben licenciarse, comprarse o no utilizarse en absoluto. Desafortunadamente, dada la aplicación inconsistente de las leyes de derechos de autor en las distintas jurisdicciones, la situación actual dista mucho de ser satisfactoria”.

Uso responsable y transparente de la IA GENERATIVA
Al igual que muchas universidades, empresas y otras organizaciones, la EPFL ha emitido directrices sobre el uso de la inteligencia artificial generativa (GenAI). Esta tecnología tiene un potencial enorme, pero queremos asegurarnos de que se use de forma informada, transparente y responsable.Usar GenAI de forma informada significa concienciar a los usuarios de sus limitaciones y riesgos, y de la importancia de no introducir datos personales o confidenciales en estos programas.Usar GenAI de forma responsable significa animar a los usuarios a comprobar si el contenido producido por estos programas es correcto, objetivo, fiable y cumple con la legislación sobre derechos de autor. Los usuarios serán los últimos responsables del contenido. Ser responsable también incluye tener en cuenta el consumo energético de los sistemas GenAI.Usar esta tecnología de forma transparente significa indicar claramente que el contenido fue producido por GenAI.

Las directrices de la EPFL, dirigidas a todos los miembros de la comunidad escolar, están disponibles en nuestro sitio web y se actualizan periódicamente.

EPFL News. M. A. A-M. B. Traducido al español

Artículos relacionados

Scroll al inicio