Atribuir rasgos humanos a las máquinas no es nada nuevo, pero con el auge de la inteligencia artificial generativa, el antropomorfismo está adquiriendo una nueva dimensión. Esta tendencia plantea cuestiones filosóficas y éticas cruciales, al tiempo que redefine nuestra relación con la tecnología.
Si alguna vez escribiste “hola” o “gracias” en ChatGPT, entonces eres culpable de antropomorfismo, una palabra complicada que aparece cada vez más en los debates sobre inteligencia artificial (IA). Pero, ¿qué significa exactamente?
En términos generales, el antropomorfismo es la atribución de características humanas a entidades no humanas, como animales y objetos. Este concepto también se ha aplicado a los robots humanoides y, más recientemente, a la IA, especialmente a la IA generativa. A diferencia de la IA especializada, que se utiliza para fines específicos, como el reconocimiento facial, la IA generativa (que incluye ChatGPT) puede generar texto, imágenes y otros tipos de contenido en respuesta a una solicitud.
Aunque la humanización de los sistemas GenAI pasa casi desapercibida, esta tendencia plantea interrogantes sobre la propia definición de humanidad e inteligencia, así como sobre nuestra relación con estas nuevas tecnologías. ¿Existe algún riesgo en tratar a una máquina de la misma manera que a un ser humano?
Antropomorfo desde el principio
El antropomorfismo de las máquinas no es nada nuevo. En 1950, el matemático y científico informático británico Alan Turing ideó una forma radical de pensar sobre la inteligencia de las máquinas. En su Test de Turing, se le pide a un evaluador humano que determine si la entidad con la que está conversando a través de un texto escrito es un ser humano o una máquina. La idea es evaluar la capacidad de las máquinas para demostrar una inteligencia similar a la humana.
Este trabajo pionero de Turing ilustra nuestra tendencia a atribuir características humanas a las máquinas y sentó las bases para futuras exploraciones del antropomorfismo.
“Normalmente esperamos que una tecnología o una máquina sea precisa, específica, más rápida y mucho más eficiente que nosotros”, afirma Daniel Huttenlocher, decano del Schwarzman College of Computing del MIT y doctor honoris causa de la EPFL en 2024. “Los resultados de GenAI parecen humanos porque muestran características humanas. Son imprecisos, adaptativos y sorprendentes”.
Tecnología que se parece a nosotros
El acrónimo AI contiene, por supuesto, la palabra “inteligencia”, pero también –y más importante– la palabra “artificial”. No obstante, Johan Rochel, profesor de la EPFL e investigador en ética y leyes de la innovación, explica: “Los sistemas de IA se basan en enormes conjuntos de datos y reflejan las decisiones que sus desarrolladores les enseñaron a tomar, transmitiendo los propios valores, creencias y morales de estos”.
A menudo, el antropomorfismo comienza con el diseño de las interfaces de los sistemas de IA. En otras palabras, la razón por la que los usuarios antropomorfizan las máquinas de IA es porque las máquinas fueron diseñadas desde el principio para mostrar características humanas. Por ejemplo, Alexa de Amazon tiene una voz cálida y un nombre humano, y ChatGPT es tan educado y amigable como lo sería una persona. Estas características se incluyeron para que las máquinas fueran fáciles y agradables de usar. “Los mejores sistemas digitales están diseñados y construidos teniendo en cuenta al usuario”, dice Rochel. “Cuanto más intuitiva sea la interacción con ellos, más fácilmente se adoptarán”.
Pero conseguir que las máquinas parezcan humanas no es tan sencillo. “Es un auténtico desafío técnico”, afirma Marcel Salathé, codirector del centro de inteligencia artificial de la EPFL. “Un sistema de inteligencia artificial perfectamente antropomorfizado debería dominar por completo el lenguaje humano, incluidos todos sus matices, y ser capaz de reconocer emociones y reaccionar de forma adecuada, procesar información en tiempo real, adaptarse a usuarios individuales, etc.”.
Formando vínculos
Cuando ChatGPT te desea buena suerte para tu evento después de que le has pedido que te dé ideas para un nombre de evento, eso hace que la interacción sea más atractiva y emotiva, y da la impresión de una relación amistosa. Ese tipo de antropomorfismo es una estrategia utilizada por los desarrolladores de sistemas para lograr que los usuarios formen un vínculo con la máquina.
Según un estudio reciente del profesor asociado de la EPFL Robert West , cuando los usuarios interactúan con un sistema de IA sobre un tema determinado y el sistema tiene acceso a la información personal de los usuarios, el sistema puede realmente cambiar sus opiniones. Esto plantea preguntas sobre el impacto social de la IA, ya que puede utilizarse no solo como tecnología digital mejorada, sino también para generar conversaciones capaces de influir en nuestras decisiones.
¿Podemos confiar en estos socios virtuales?
En el sector sanitario, se están desarrollando cada vez más sistemas antropomórficos (entre ellos robots humanoides y chatbots de apoyo moral) para atender y ayudar a los pacientes. Estos sistemas virtuales humanizados y personalizados están diseñados para generar confianza y crear vínculos.
“Los usuarios de hoy están cada vez más informados y son más conscientes del potencial que ofrece la tecnología digital”, afirma Rochel. “Y crece la demanda de sistemas en los que puedan confiar. Esto también se refleja en la legislación. Aunque la definición exacta de “confianza” puede variar, un aspecto clave es que se desarrolla a través de relaciones entre personas. En este caso, sin embargo, se trata de relaciones entre personas y máquinas. Todas las características que dan a los usuarios la impresión de que están interactuando con un ser humano tienen como objetivo generar confianza, pero estas características no siempre son explícitas”. Por ejemplo, tomemos como ejemplo la forma en que ChatGPT entrega sus respuestas, “como si alguien estuviera escribiendo la respuesta, como en una aplicación de mensajería”, dice Rochet. “Los usuarios obviamente saben que ChatGPT no es humano, pero esta forma encubierta de simular una conversación con un ser humano anima a los usuarios a establecer una especie de relación con la máquina, una máquina que pretende ser como nosotros”.
Este tipo de relaciones simuladas con una máquina pueden ir más allá de la charla informal y las respuestas cordiales. En Her, una película estrenada en 2013, el personaje principal interpretado por Joaquin Phoenix se enamora de su asistente de voz, interpretada por Scarlett Johansson. La película plantea preguntas sobre las relaciones personales y sobre cómo la IA generativa puede influir en nuestro comportamiento. “La confianza se construye a menudo compartiendo información personal y confidencial, lo que puede ser muy perjudicial si cae en las manos equivocadas”, afirma Salathé. “Está en juego la privacidad de los usuarios”.
Una cuestión de seguridad y responsabilidad
Si consideramos a los sistemas de IA como nuestros iguales, ¿deberían ser culpables si, por ejemplo, un ensayo que entregamos contiene errores? “Eso implicaría que los sistemas de IA pueden ser considerados responsables al igual que los individuos”, dice Rochel. “Pero no debemos olvidar que su inteligencia es simplemente artificial. Las máquinas nunca pueden ser consideradas responsables porque no son completamente autónomas. No pueden tomar decisiones distintas a las que han sido programadas. Necesitamos buscar al humano detrás de la máquina. Pero ¿dónde recae la responsabilidad: en el desarrollador o en el usuario?”
“Me gusta utilizar la metáfora del tenedor en la tostadora”, dice Huttenlocher. “Si miras las fotos de las primeras tostadoras de la década de 1900, pronto te darás cuenta de que era fácil electrocutarse al clavar un tenedor. Con el tiempo, se introdujeron normas y salvaguardas para que las tostadoras fueran seguras y evitar que ese mal uso se convirtiera en una práctica habitual. Tenemos que hacer lo mismo con la IA. Tenemos que introducir salvaguardas contra el mal uso de la tecnología, establecer responsabilidades legales y adoptar normas que sean entendidas por todos”.
Según Rochel, “la transparencia será primordial. Tenemos que recordar a la gente que estas son solo máquinas y que pueden cometer errores. Esto ayudará a reducir el riesgo de uso indebido”.
Los legisladores siguen debatiendo cómo establecer la transparencia y la explicabilidad en los sistemas de IA. La Ley de IA de la Unión Europea es muy clara: los sistemas de IA generativos deben diseñarse y presentarse de forma que quede perfectamente claro que no son humanos. Los usuarios deben ser plenamente conscientes de que están interactuando con una máquina.
La IA y la humanidad: forjando una alianza reflexiva y perspicaz
“Podemos aprender mucho de la IA”, afirma Huttenlocher. “Por ejemplo, AlphaGo ideó estrategias para Go en las que ni siquiera sus mejores jugadores habían pensado, aportando una dimensión completamente nueva al juego. Considero que la IA es un invento que puede mejorar, en lugar de reemplazar, las capacidades humanas”.
Salathé señala que “al antropomorfizar los sistemas de IA, podemos acelerar la adopción de tecnología, pero esto también plantea cuestiones fundamentales sobre el papel de los humanos en un mundo en el que cada vez es más difícil distinguir a los humanos de las máquinas. A medida que la IA se desarrolle más, tendremos que asegurarnos de que nuestras interacciones con las máquinas, por naturales que parezcan, no nos hagan perder de vista lo que nos hace humanos”.
Para Rochel, “los desarrolladores de sistemas de IA, las partes interesadas, los legisladores y los usuarios deben trabajar juntos para garantizar que la tecnología siga siendo una herramienta en manos de los seres humanos y no se convierta en una fuerza que los reemplace o manipule”. EPFL. M. A. Traducido al español