La inteligencia artificial se ha vuelto increíblemente buena para imitar las capacidades conversacionales humanas. Una nueva investigación sugiere que sus poderes de imitación van mucho más allá, y hacen posible replicar las personalidades de personas específicas.
Los seres humanos somos complejos. Nuestras creencias, rasgos de carácter y la forma en que abordamos las decisiones son productos tanto de la naturaleza como de la crianza, se han ido construyendo a lo largo de décadas y han sido moldeados por nuestras experiencias de vida particulares.
Pero parece que no somos tan únicos como pensamos. Un estudio dirigido por investigadores de la Universidad de Stanford ha descubierto que basta con una entrevista de dos horas para que un modelo de inteligencia artificial prediga las respuestas de las personas a una serie de cuestionarios, pruebas de personalidad y experimentos mentales con una precisión del 85 por ciento.
Aunque la idea de clonar la personalidad de las personas puede parecer espeluznante, los investigadores dicen que el enfoque podría convertirse en una herramienta poderosa para los científicos sociales y los políticos que buscan simular respuestas a diferentes opciones políticas.
“Lo que tenemos la oportunidad de hacer ahora es crear modelos de individuos que sean verdaderamente de alta fidelidad”, dijo a New Scientist Joon Sung Park de Stanford, quien dirigió la investigación . “ Podemos construir un agente de una persona que capture muchas de sus complejidades y su naturaleza idiosincrásica”.
La inteligencia artificial no se utilizó solo para crear réplicas virtuales de los participantes del estudio, sino que también ayudó a recopilar los datos de entrenamiento necesarios. Los investigadores obtuvieron una versión con voz habilitada de GPT-4o de OpenAI para entrevistar a personas utilizando un guion del American Voices Project, una iniciativa de ciencias sociales destinada a recopilar respuestas de familias estadounidenses sobre una amplia gama de cuestiones.
Además de hacer preguntas preestablecidas, los investigadores también pidieron al modelo que hiciera preguntas de seguimiento en función de las respuestas de las personas. El modelo entrevistó a 1.052 personas en todo Estados Unidos durante dos horas y produjo transcripciones para cada individuo.
Con estos datos, los investigadores crearon agentes de IA con tecnología GPT-4o para responder preguntas de la misma manera que lo haría un participante humano. Cada vez que un agente respondía una pregunta, se incluía la transcripción completa de la entrevista junto con la consulta y se le indicaba al modelo que imitara al participante.
Para evaluar el enfoque, los investigadores hicieron que los agentes y los participantes humanos se enfrentaran en una serie de pruebas, entre ellas la Encuesta Social General, que mide las actitudes sociales ante diversos temas; una prueba diseñada para juzgar la puntuación de las personas en los Cinco Grandes rasgos de personalidad ; varios juegos que ponen a prueba la toma de decisiones económicas; y un puñado de experimentos de ciencias sociales.
Los humanos suelen responder de forma muy diferente a este tipo de pruebas en distintos momentos, lo que dificultaría las comparaciones con los modelos de IA. Para controlar esto, los investigadores pidieron a los humanos que completaran la prueba dos veces, con dos semanas de diferencia, para poder evaluar la consistencia de los participantes.
Cuando el equipo comparó las respuestas de los modelos de IA con las de la primera ronda de respuestas humanas, los agentes tuvieron una precisión de aproximadamente el 69 por ciento. Pero si se tiene en cuenta cómo variaban las respuestas de los humanos entre sesiones, los investigadores descubrieron que los modelos tenían una precisión del 85 por ciento.
Hassaan Raza, director ejecutivo de Tavus, una empresa que crea “gemelos digitales” de clientes, dijo a MIT Technology Review que la mayor sorpresa del estudio fue la poca cantidad de datos que se necesitaron para crear copias fieles de personas reales. Normalmente, Tavus necesita una gran cantidad de correos electrónicos y otra información para crear sus clones de IA.
“Lo que realmente fue genial aquí es que nos muestran que tal vez no necesitemos tanta información”, dijo. “¿Qué tal si simplemente hablamos con un entrevistador de IA durante 30 minutos hoy, 30 minutos mañana? Y luego usamos eso para construir este gemelo digital de nosotros”.
La creación de réplicas realistas de humanos mediante inteligencia artificial podría resultar una herramienta poderosa para la formulación de políticas, dijo Richard Whittle, de la Universidad de Salford, Reino Unido, a New Scientist , ya que los grupos de discusión sobre inteligencia artificial podrían ser mucho más baratos y rápidos que los formados por humanos.
Pero no es difícil ver cómo la misma tecnología podría utilizarse para fines nefastos. Ya se ha utilizado un video falso para hacerse pasar por un alto ejecutivo en una elaborada estafa multimillonaria . La capacidad de imitar la personalidad completa de un objetivo probablemente potenciaría tales esfuerzos.
De cualquier manera, la investigación sugiere que es inminente el surgimiento de máquinas capaces de imitar de manera realista a los humanos en una amplia gama de entornos. SingularityHub. Traducido al español