Los sistemas de inteligencia artificial (IA) tienden a asumir los prejuicios humanos y amplificarlos, lo que provoca que las personas que usan esa IA se vuelvan más parciales, según un nuevo estudio de investigadores de la UCL.
Los sesgos humanos y de la IA pueden crear un ciclo de retroalimentación en el que pequeños sesgos iniciales aumentan el riesgo de error humano, según los hallazgos publicados en Nature Human Behaviour .
Los investigadores demostraron que el sesgo de la IA puede tener consecuencias en el mundo real, ya que descubrieron que las personas que interactuaban con IA sesgadas tenían más probabilidades de subestimar el desempeño de las mujeres y sobreestimar la probabilidad de los hombres blancos de ocupar puestos de alto estatus.
La profesora Tali Sharot (UCL Psychology & Language Sciences, Max Planck UCL Centre for Computational Psychiatry and Ageing Research, y Massachusetts Institute of Technology) y coautora principal afirmó: “Las personas tienen prejuicios por naturaleza, por lo que cuando entrenamos sistemas de IA con conjuntos de datos producidos por personas, los algoritmos de IA aprenden los prejuicios humanos que están incorporados en los datos. Luego, la IA tiende a explotar y amplificar estos prejuicios para mejorar la precisión de sus predicciones.
“Aquí, hemos descubierto que las personas que interactúan con sistemas de IA sesgados pueden volverse aún más sesgadas, lo que crea un posible efecto de bola de nieve en el que los sesgos minúsculos en los conjuntos de datos originales son amplificados por la IA, lo que aumenta los sesgos de la persona que usa la IA”.
Los investigadores realizaron una serie de experimentos con más de 1.200 participantes del estudio que completaban tareas e interactuaban con sistemas de IA.
Como paso previo a uno de los experimentos, los investigadores entrenaron un algoritmo de IA con un conjunto de datos de respuestas de los participantes. Se pidió a las personas que juzgaran si un grupo de rostros en una foto parecía feliz o triste, y demostraron una ligera tendencia a juzgar los rostros como tristes con más frecuencia que como felices. La IA aprendió este sesgo y lo amplificó hasta convertirlo en un sesgo mayor hacia juzgar los rostros como tristes.
Otro grupo de participantes completó la misma tarea, pero también se les dijo qué juicio había hecho la IA sobre cada foto. Después de interactuar con este sistema de IA durante un tiempo, este grupo de personas internalizó el sesgo de la IA y era incluso más propenso a decir que las caras se veían tristes que antes de interactuar con la IA. Esto demuestra que la IA aprendió un sesgo de un conjunto de datos derivado de humanos y luego amplificó los sesgos inherentes de otro grupo de personas.
Los investigadores encontraron resultados similares en experimentos en los que se utilizaron tareas muy diferentes, como evaluar la dirección en la que se movía un conjunto de puntos en una pantalla o, en particular, evaluar el desempeño de otra persona en una tarea, en los que las personas eran particularmente propensas a sobrestimar el desempeño de los hombres después de interactuar con un sistema de IA sesgado (que se creó con un sesgo de género inherente para imitar los sesgos de muchas IA existentes). Los participantes en general desconocían el alcance de la influencia de la IA.
Cuando a las personas se les dijo falsamente que estaban interactuando con otra persona, pero en realidad estaban interactuando con una IA, internalizaron los sesgos en menor medida, lo que según los investigadores podría deberse a que las personas esperan que la IA sea más precisa que un humano en algunas tareas.
Los investigadores también realizaron experimentos con un sistema de inteligencia artificial generativa ampliamente utilizado, Stable Diffusion. En un experimento, los investigadores pidieron a la IA que generara fotos de gerentes financieros, lo que arrojó resultados sesgados, ya que los hombres blancos estaban sobrerrepresentados más allá de su proporción real. Luego pidieron a los participantes del estudio que vieran una serie de fotos de rostros y seleccionaran qué persona tenía más probabilidades de ser gerente financiero antes y después de que se les presentaran las imágenes generadas por la IA. Los investigadores descubrieron que los participantes estaban incluso más inclinados a indicar que un hombre blanco tenía más probabilidades de ser gerente financiero después de ver las imágenes generadas por Stable Diffusion que antes.
El coautor principal, el Dr. Moshe Glickman (UCL Psychology & Language Sciences y Max Planck UCL Centre for Computational Psychiatry and Ageing Research) dijo: “No solo las personas sesgadas contribuyen a las IA sesgadas, sino que los sistemas de IA sesgados pueden alterar las propias creencias de las personas, de modo que las personas que usan herramientas de IA pueden terminar volviéndose más sesgadas en dominios que van desde los juicios sociales hasta la percepción básica.
“Sin embargo, también descubrimos que interactuar con IA precisas puede mejorar el juicio de las personas, por lo que es vital que los sistemas de IA se perfeccionen para que sean lo más imparciales y precisos posible”.
El profesor Sharot añadió: “Los desarrolladores de algoritmos tienen una gran responsabilidad en el diseño de sistemas de IA; la influencia de los sesgos de la IA podría tener profundas implicaciones a medida que la IA se vuelve cada vez más frecuente en muchos aspectos de nuestras vidas”. UCL. News. Traducido al español