El Portal de las Tecnologías para la Innovación

Categoría: La Ética y la Inteligencia Artificial

Ética y gobernanza de la IA en 2025: entrevista con Phaedra Boinidiris

Fedra Boinodiris Líder mundial en inteligencia artificial confiable, IBM Consulting A medida que nos acercamos al final de un año aparentemente ininterrumpido de innovación, escándalo y asombro en materia de IA, la ética y la gobernanza de la tecnología nunca han sido más importantes (ni más inciertas). En esta sesión de preguntas y respuestas de tres partes, recurrimos a la líder global de inteligencia artificial confiable de IBM Consulting, Phaedra Boinidiris, para que nos eche un vistazo a sus predicciones para 2025. Las últimas noticias e información sobre IA Información y noticias seleccionadas por expertos sobre IA, la nube y más en el boletín semanal Think.  Suscríbete hoy De cara al año 2025, ¿cuál diría que es el problema ético más importante para la IA? Es muy sencillo: alfabetización. La alfabetización en IA se refiere a la capacidad de comprender, utilizar y evaluar la inteligencia artificial. La IA se ha vuelto omnipresente en las noticias; cada día nos trae un nuevo titular digno de ciencia ficción. Sin embargo, personas de todo el mundo, en todo tipo de puestos e industrias, todavía no saben siquiera que la están utilizando. Por lo tanto, si bien es fundamental resolver los problemas más noticiosos (y muy reales), como los algoritmos sesgados, la privacidad de los datos, el impacto ambiental y el desplazamiento de puestos de trabajo, etcétera, nada de esto se puede lograr sin un mundo alfabetizado en IA, desde la fuerza laboral hasta el gobierno, los sistemas escolares y más allá. En segundo lugar, muy de cerca, estaría la rendición de cuentas. Necesitamos personas en puestos de poder financiados que rindan cuentas de los resultados de estos modelos.Mezcla de expertos | Podcast Descifrando la IA: resumen semanal de noticias Únase a nuestro panel de clase mundial de ingenieros, investigadores, líderes de productos y más mientras eliminan el ruido de la IA para brindarle lo último en noticias y conocimientos sobre IA.Mira los episodios  ¿Cuál es el mayor obstáculo que prevé en el desarrollo real de una IA ética?  Para que los equipos de desarrollo reconozcan que crear una IA ética no es estrictamente un problema técnico, sino un problema sociotécnico , y que el equipo que diseña el modelo debe ser multidisciplinario en lugar de estar aislado. Durante décadas, hemos estado diciendo que aquellos que no tienen experiencia en el dominio tradicional no deberían estar en la sala. Eso es un gran paso en falso. Para construir modelos de IA seleccionados de manera responsable (que, por cierto, también son modelos más precisos), se necesita un equipo compuesto por algo más que científicos de datos que puedan opinar desde el principio sobre cuestiones como «¿esta IA está resolviendo el problema que necesitamos que resuelva? ¿Son estos los datos correctos según los expertos en la materia? ¿Cuáles son sus efectos no deseados? ¿Cómo podemos mitigar esos efectos?». Hay que incorporar a expertos en lingüística y filosofía, padres, jóvenes, gente común con diferentes experiencias de vida y de diferentes orígenes socioeconómicos. Cuanto más amplia sea la variedad, mejor. No se trata de moralidad, se trata de matemáticas . ¿Hacia dónde se dirige la gobernanza de la IA a nivel global? En todo el mundo estamos siendo testigos de la vieja lucha entre innovación y cumplimiento normativo en lo que respecta a la IA. Sin embargo, acabo de regresar de una presentación en la Comisión Trilateral Europea y me siento muy inspirado por la audaz visión de la UE para la IA. Es cierto que en la actualidad se invierte mucho menos capital en IA en la UE que en Estados Unidos, y espero sinceramente que esto cambie pronto. Creo que la UE tiene una enorme oportunidad de redoblar sus esfuerzos para mostrar al mundo cómo permitir que los expertos en la materia tengan un mayor control sobre los datos y cómo se utilizan para entrenar a la IA. Creo que la UE podría mostrar al mundo cómo tener enfoques holísticos para la alfabetización en IA que incluyan programas multidisciplinarios. Podría mostrar al mundo cómo certificar a auditores externos que puedan exigir responsabilidades a las organizaciones por los modelos fraudulentos. En mi opinión, Europa está liderando el camino en muchos aspectos en lo que respecta a la gobernanza de la IA, y espero que otros países sigan su ejemplo. El compromiso de Europa con la incorporación de principios éticos en el desarrollo de la IA no tiene parangón. Se hace hincapié en los derechos humanos en lo que respecta a la protección de la privacidad, la promoción de la transparencia y la mitigación de sesgos no deseados. Y la colaboración interdisciplinaria es enorme con programas como Horizonte Europa y «Cómo cambiar el mundo» y los esfuerzos de la UE por forjar alianzas con países y organizaciones afines. La IA responsable no se trata solo de lo que podemos construir, sino de por qué y cómo lo hacemos. La diversidad, la equidad y la inclusión son fundamentales para una estrategia de innovación en IA, no solo porque es el camino ético, sino porque las perspectivas diversas impulsan una resolución de problemas más creativa, el acceso equitativo garantiza un impacto social más amplio y el diseño inclusivo reduce los sesgos no deseados, creando tecnología que funciona para todos. IBM News. Traducido al español

Leer más »

Conferencia de Stanford explora la tecnología educativa en la era de la IA

El Acelerador de Aprendizaje de Stanford convocó a líderes de tecnología educativa, investigadores, financiadores, educadores y estudiantes para visualizar una tecnología educativa efectiva, respaldada por investigaciones, equitativa y receptiva. “Queremos que los estudiantes prosperen durante toda su vida y que tengan las experiencias educativas que conduzcan a ese progreso”, dijo la profesora Susanna Loeb en el panel de apertura de la cumbre Accelerate Edtech Impact 2024 en Stanford. “Queremos eso para todos los estudiantes. No solo queremos eso para los estudiantes de familias con buenos recursos, y no solo queremos eso para los estudiantes que están motivados y comprometidos con la escuela en este momento… realmente tenemos que pensar en la amplia gama de estudiantes”. La experiencia del alumno fue el eje central de la segunda cumbre anual, organizada por Stanford Accelerator for Learning. Antes de que Loeb subiera al escenario, la cumbre comenzó con cuatro oradores estudiantes, desde un estudiante de secundaria hasta un estudiante de doctorado, que reflexionaron sobre cómo la inteligencia artificial ha influido en su aprendizaje. Y antes, ocho estudiantes de Stanford mostraron proyectos de tecnología educativa de su propia creación. La convocatoria reunió a 400 líderes, investigadores, financiadores, educadores y estudiantes de tecnología educativa en un espacio diseñado para compartir conocimientos, conectarse e inspirarse. Las 10 sesiones, que abarcaron desde paneles hasta talleres interactivos, mostraron usos efectivos de la tecnología educativa, exploraron el papel de la investigación y pusieron a los actores clave en diálogo entre sí. Cada panel incluyó al menos un educador, un investigador de Stanford y un líder de tecnología educativa, y las conversaciones se basaron en una visión compartida de un aprendizaje efectivo, equitativo y receptivo habilitado por la tecnología. Las principales conclusiones de la cumbre incluyeron: La tecnología educativa exitosa coloca a los educadores en el asiento del conductor, apoyados por el liderazgo de la escuela y el distrito. Los oradores de las distintas sesiones destacaron que las herramientas de tecnología educativa más eficaces empoderan a los docentes en lugar de dificultarles el trabajo. Los líderes tecnológicos, en particular, reflexionaron sobre el hecho de que, con puntos de acceso accesibles a una herramienta y un espacio para experimentar, los docentes suelen encontrar mejores usos de los que se habían imaginado originalmente. “Cuando el docente está capacitado para usar esta tecnología y la comprende en profundidad, será increíblemente creativo a la hora de utilizarla con sus alumnos”, afirmó Adeel Khan, fundador y director ejecutivo de Magic School. “Hemos visto casos de uso que se les ocurren a las personas porque entienden su profesión y comprenden el contexto de sus alumnos mucho más profundamente que yo o cualquier otra persona”. Magic School tiene como objetivo apoyar a los docentes con herramientas de inteligencia artificial que ayuden a crear evaluaciones, planificar lecciones y diferenciar la instrucción. Lane Dilg, responsable de iniciativas estratégicas en OpenAI, creador de ChatGPT, dijo que los profesores crearán los mejores usos del programa de IA generativa y, cuando se utilice correctamente, ve potencial en la herramienta para mejorar la satisfacción laboral de los profesores. “Esperamos que nuestros modelos… sean tan beneficiosos y útiles para la enseñanza y el aprendizaje como sea posible. Pero en términos de implementación real, nos centraremos primero, en particular en la educación primaria y secundaria, en apoyar a los educadores”. Richard Charles, director de información de las escuelas públicas de Denver, demostró el papel del liderazgo a la hora de empoderar a los docentes en lo que respecta al uso de la tecnología. Supervisa cómo los docentes de su distrito utilizan las herramientas tecnológicas de manera eficaz y eleva su trabajo a otros educadores. También participó en la creación de una lista de verificación de preparación para la IA desde el jardín de infantes hasta el 12.º grado, en colaboración con otros cuatro distritos y consorcios escolares, proporcionando orientación que permite a los docentes dar rienda suelta a su creatividad. Las herramientas de IA deberían hacer más que tareas tediosas: pueden ayudar a mejorar la enseñanza. Desde el lanzamiento de ChatGPT, los tecnólogos educativos han explorado formas en que puede ayudar a reducir las horas de trabajo humano al ayudar con tareas repetitivas y que consumen mucho tiempo, como calificar, crear horarios o asistencia, lo que permite a los docentes dedicar tiempo y energía a concentrarse en sus estudiantes y ahorrarles dinero a las escuelas y recursos de personal. Sin embargo, un tema que surgió en todas las sesiones fue la posibilidad de que la IA aumente y mejore la práctica de la enseñanza. Con una enorme cantidad de datos disponibles para recopilar sobre los alumnos, la IA puede ayudar a procesarlos y traducirlos para brindar información útil a los maestros, estudiantes y padres. Entre los ejemplos citados se incluyen los siguientes: Con las nuevas herramientas disponibles, la industria de la evaluación también está evolucionando. La gente está “cuestionando la noción de una prueba estandarizada tradicional”, dijo Amit Sevak, director ejecutivo de Educational Testing Service (ETS), conocido por crear y administrar evaluaciones como TOEFL, GRE y Praxis. ETS está expandiendo su negocio para centrarse en evaluaciones personalizadas en lugar de estandarizadas, aquellas que miden el desempeño en lugar del conocimiento y aquellas que evalúan las habilidades del siglo XXI. Su trabajo incluye expandir tanto la tecnología como la metodología de evaluación. “Realmente estamos avanzando hacia una nueva era… hemos estado atravesando una transformación masiva”, reflexionó. La investigación educativa sigue siendo clave para diseñar tecnología educativa eficaz. Es ampliamente sabido que la tecnología educativa debe basarse en evidencia, pero se están desarrollando nuevas herramientas a un ritmo más rápido que la investigación tradicional revisada por pares. Los investigadores, tecnólogos y financiadores idearon cómo garantizar que los últimos conocimientos sirvan de base para las últimas soluciones. Algunas ideas que surgieron: La tecnología puede ampliar cómo y cuándo ocurre el aprendizaje y qué se enseña. En una charla informal de cierre, Jon Levin, presidente de la Universidad de Stanford, ’94, y Neal Mohan, director ejecutivo de YouTube, ’96, MBA ’05, reflexionaron sobre cómo la tecnología ha expandido

Leer más »

GPT-4o de OpenAI crea clones de IA de personas reales con una facilidad sorprendente

La inteligencia artificial se ha vuelto increíblemente buena para imitar las capacidades conversacionales humanas. Una nueva investigación sugiere que sus poderes de imitación van mucho más allá, y hacen posible replicar las personalidades de personas específicas. Los seres humanos somos complejos. Nuestras creencias, rasgos de carácter y la forma en que abordamos las decisiones son productos tanto de la naturaleza como de la crianza, se han ido construyendo a lo largo de décadas y han sido moldeados por nuestras experiencias de vida particulares. Pero parece que no somos tan únicos como pensamos. Un estudio dirigido por investigadores de la Universidad de Stanford ha descubierto que basta con una entrevista de dos horas para que un modelo de inteligencia artificial prediga las respuestas de las personas a una serie de cuestionarios, pruebas de personalidad y experimentos mentales con una precisión del 85 por ciento. Aunque la idea de clonar la personalidad de las personas puede parecer espeluznante, los investigadores dicen que el enfoque podría convertirse en una herramienta poderosa para los científicos sociales y los políticos que buscan simular respuestas a diferentes opciones políticas. “Lo que tenemos la oportunidad de hacer ahora es crear modelos de individuos que sean verdaderamente de alta fidelidad”, dijo a New Scientist Joon Sung Park de Stanford, quien dirigió la investigación . “ Podemos construir un agente de una persona que capture muchas de sus complejidades y su naturaleza idiosincrásica”. La inteligencia artificial no se utilizó solo para crear réplicas virtuales de los participantes del estudio, sino que también ayudó a recopilar los datos de entrenamiento necesarios. Los investigadores obtuvieron una versión con voz habilitada de GPT-4o de OpenAI para entrevistar a personas utilizando un guion del American Voices Project, una iniciativa de ciencias sociales destinada a recopilar respuestas de familias estadounidenses sobre una amplia gama de cuestiones. Además de hacer preguntas preestablecidas, los investigadores también pidieron al modelo que hiciera preguntas de seguimiento en función de las respuestas de las personas. El modelo entrevistó a 1.052 personas en todo Estados Unidos durante dos horas y produjo transcripciones para cada individuo. Con estos datos, los investigadores crearon agentes de IA con tecnología GPT-4o para responder preguntas de la misma manera que lo haría un participante humano. Cada vez que un agente respondía una pregunta, se incluía la transcripción completa de la entrevista junto con la consulta y se le indicaba al modelo que imitara al participante. Para evaluar el enfoque, los investigadores hicieron que los agentes y los participantes humanos se enfrentaran en una serie de pruebas, entre ellas la Encuesta Social General, que mide las actitudes sociales ante diversos temas; una prueba diseñada para juzgar la puntuación de las personas en los Cinco Grandes rasgos de personalidad ; varios juegos que ponen a prueba la toma de decisiones económicas; y un puñado de experimentos de ciencias sociales. Los humanos suelen responder de forma muy diferente a este tipo de pruebas en distintos momentos, lo que dificultaría las comparaciones con los modelos de IA. Para controlar esto, los investigadores pidieron a los humanos que completaran la prueba dos veces, con dos semanas de diferencia, para poder evaluar la consistencia de los participantes. Cuando el equipo comparó las respuestas de los modelos de IA con las de la primera ronda de respuestas humanas, los agentes tuvieron una precisión de aproximadamente el 69 por ciento. Pero si se tiene en cuenta cómo variaban las respuestas de los humanos entre sesiones, los investigadores descubrieron que los modelos tenían una precisión del 85 por ciento. Hassaan Raza, director ejecutivo de Tavus, una empresa que crea “gemelos digitales” de clientes, dijo a MIT Technology Review que la mayor sorpresa del estudio fue la poca cantidad de datos que se necesitaron para crear copias fieles de personas reales. Normalmente, Tavus necesita una gran cantidad de correos electrónicos y otra información para crear sus clones de IA. “Lo que realmente fue genial aquí es que nos muestran que tal vez no necesitemos tanta información”, dijo. “¿Qué tal si simplemente hablamos con un entrevistador de IA durante 30 minutos hoy, 30 minutos mañana? Y luego usamos eso para construir este gemelo digital de nosotros”. La creación de réplicas realistas de humanos mediante inteligencia artificial podría resultar una herramienta poderosa para la formulación de políticas, dijo Richard Whittle, de la Universidad de Salford, Reino Unido, a New Scientist , ya que los grupos de discusión sobre inteligencia artificial podrían ser mucho más baratos y rápidos que los formados por humanos. Pero no es difícil ver cómo la misma tecnología podría utilizarse para fines nefastos. Ya se ha utilizado un video falso para hacerse pasar por un alto ejecutivo en una elaborada estafa multimillonaria . La capacidad de imitar la personalidad completa de un objetivo probablemente potenciaría tales esfuerzos. De cualquier manera, la investigación sugiere que es inminente el surgimiento de máquinas capaces de imitar de manera realista a los humanos en una amplia gama de entornos. SingularityHub. Traducido al español

Leer más »

¿Podría ChatGPT obtener un título de ingeniería?

Una investigación de la EPFL que investiga el impacto potencial de los asistentes de IA en la educación ha descubierto que sistemas como GPT-4 pueden responder correctamente hasta el 85% de las preguntas de evaluación universitaria. ChatGPT irrumpió en la escena pública a finales de 2022 y atrajo a más de 100 millones de usuarios tan solo en su primer mes. Desde entonces, ha habido cada vez más ejemplos de cómo la IA puede transformar la sociedad en los próximos años, desde el empleo y la comunicación hasta la educación. En la educación superior, los estudiantes utilizan cada vez más asistentes de inteligencia artificial. Si bien estas herramientas brindan oportunidades para mejorar la enseñanza y la educación, también plantean desafíos importantes para la evaluación y los resultados del aprendizaje. Sin embargo, hasta ahora, no se ha realizado ningún estudio exhaustivo sobre su posible impacto en los métodos de evaluación que utilizan las instituciones educativas. Como se describe en su nuevo artículo publicado en las Actas de la Academia Nacional de Ciencias (PNAS), los investigadores de la Escuela de Ciencias de la Computación y la Comunicación de la EPFL han llevado a cabo un estudio a gran escala en 50 cursos de la EPFL para medir el desempeño actual de los modelos de lenguaje a gran escala en las evaluaciones de cursos de educación superior. Los cursos seleccionados fueron seleccionados de 9 programas de licenciatura, maestría y en línea, que cubren un amplio espectro de disciplinas STEM, incluidas la informática, las matemáticas, la biología, la química, la física y las ciencias de los materiales. «Tuvimos suerte de que un gran consorcio de profesores, maestros y asistentes de cátedra de la EPFL nos ayudara a recopilar el mayor conjunto de datos hasta la fecha sobre materiales de cursos, evaluaciones y exámenes para obtener una gama diversa de materiales en todos nuestros programas de grado», explicó el profesor adjunto Antoine Bosselut, director del Laboratorio de Procesamiento del Lenguaje Natural (PLN) y miembro del Centro de IA de la EPFL . «Estos datos se seleccionaron en un formato que pensamos que se asemejaría más a las formas en que los estudiantes realmente darían esta información a los modelos y luego generamos respuestas de los modelos y vimos qué tan bien respondían». Centrados en GPT-3.5 y GPT-4, los investigadores utilizaron ocho estrategias de estímulo para producir respuestas y descubrieron que GPT-4 responde correctamente a un promedio del 65,8 % de las preguntas e incluso puede producir la respuesta correcta en al menos una estrategia de estímulo para el 85,1 % de las preguntas. “Nos sorprendieron los resultados, nadie esperaba que los asistentes de inteligencia artificial lograran un porcentaje tan alto de respuestas correctas en tantos cursos. Es importante destacar que el 65% de las preguntas respondidas correctamente se logró utilizando la estrategia más básica, sin necesidad de conocimientos previos, por lo que cualquier persona, sin entender nada técnicamente, podría lograrlo. Con un cierto conocimiento de la materia, lo cual es habitual, fue posible lograr una tasa de éxito del 85% y eso fue realmente una sorpresa”, dijo Anna Sotnikova, científica del NPL y coautora del artículo. Nos sorprendieron los resultados, nadie esperaba que los asistentes de IA lograran un porcentaje tan alto de respuestas correctas en tantos cursos.Anna Sotnikova, científica del Laboratorio de Procesamiento del Lenguaje Natural El impacto de la IA en el aprendizaje y el desarrollo de habilidades de los estudiantes Los investigadores fundamentaron teóricamente los problemas asociados con el uso de estos sistemas de IA por parte de los estudiantes en la vulnerabilidad: por un lado, la vulnerabilidad de la evaluación o si las evaluaciones utilizadas tradicionalmente pueden ser «manipuladas» por estos sistemas y, por otro lado, la vulnerabilidad educativa, es decir, si estos sistemas podrían usarse para eludir los caminos cognitivos típicos que toman los estudiantes para aprender las habilidades académicas que necesitan. En este contexto, los investigadores creen que los resultados del estudio plantean preguntas claras sobre cómo garantizar que los estudiantes sean capaces de aprender los conceptos básicos necesarios para comprender temas más complejos más adelante. “El temor es que si estos modelos son tan eficaces como lo que indicamos, los estudiantes que los utilicen podrían acortar el proceso mediante el cual aprenderían nuevos conceptos. Esto podría generar bases más débiles para ciertas habilidades al principio, lo que dificultaría el aprendizaje de conceptos más complejos más adelante. Tal vez sea necesario un debate sobre lo que deberíamos enseñar en primer lugar para lograr las mejores sinergias entre las tecnologías que tenemos y lo que harán los estudiantes en las próximas décadas”, dijo Bosselut. Otro punto clave del desarrollo de los asistentes de inteligencia artificial es que no van a empeorar, sino que van a mejorar. En esta investigación, que finalizó hace un año, se utilizó un único modelo para todas las asignaturas y, por ejemplo, tuvo problemas especiales con las preguntas de matemáticas. Ahora hay modelos específicos para matemáticas. La conclusión, dicen los investigadores, es que si el estudio se repitiera hoy, las cifras serían aún mayores. Enfatizar evaluaciones complejas y adaptar la educación “A corto plazo, deberíamos impulsar evaluaciones más difíciles, no en el sentido de la dificultad de las preguntas, sino en el sentido de la complejidad de la evaluación en sí, donde se deben extraer múltiples habilidades de diferentes conceptos que se aprenden a lo largo del curso durante el semestre y que se combinan en una evaluación holística”, sugirió Bosselut. “Los modelos aún no están realmente diseñados para planificar y trabajar de esta manera y, al final, en realidad creemos que este aprendizaje basado en proyectos es mejor para los estudiantes de todos modos”. “La IA plantea muchos desafíos a las instituciones de educación superior, por ejemplo: qué nuevas competencias se requieren para los futuros graduados, cuáles se están volviendo obsoletas, cómo podemos proporcionar retroalimentación a gran escala y cómo medimos el conocimiento. Este tipo de preguntas surgen en casi todas las reuniones de gestión en la EPFL y lo más importante es que nuestros equipos inicien proyectos que proporcionen respuestas basadas en evidencia a tantas como sea posible”, dijo Pierre Dillenbourg, vicepresidente de Asuntos Académicos de

Leer más »

Adoptar la IA en la diplomacia: ¿Cómo puede Europa prepararse para una transformación crucial en los asuntos globales?

Los días 21 y 22 de noviembre participamos en el 25º Programa Diplomático Europeo, celebrado en Budapest en el marco de la presidencia húngara de la UE. Se trata de una reunión anual de unos 100 diplomáticos jóvenes de los Estados miembros de la UE y del SEAE, así como directores de institutos y academias de formación diplomática de la UE. El evento destacó la urgencia de adoptar la IA en la formación diplomática , y reflexionó sobre las dinámicas discusiones con los diplomáticos emergentes y los directores de formación. A medida que la IA sigue evolucionando, es crucial que la próxima generación de diplomáticos no solo comprenda sus implicaciones, sino que participe activamente en ella como una herramienta que influirá directamente en sus carreras y en el panorama geopolítico. Nuestra presentación en Budapest se centró en los siguientes tres conjuntos de interacciones entre la IA y la diplomacia: En primer lugar, la IA está transformando el entorno geopolítico en el que opera la diplomacia, ya que facilita la redistribución del poder económico y social, lo que conduce al surgimiento de nuevos centros de influencia. Países como China, Estados Unidos, los Estados del Golfo y Singapur se están convirtiendo en actores clave en el ámbito de la IA. En consecuencia, Europa debe reevaluar su posición en este panorama geoeconómico en rápida evolución y diseñar estrategias para su interacción con estas nuevas potencias de la IA. En segundo lugar, la IA introduce nuevos temas en la agenda diplomática. Más allá de cuestiones tradicionales como la seguridad, el comercio y las preocupaciones medioambientales, los diplomáticos deben abordar ahora cuestiones relacionadas con la IA tanto a nivel regional como de las Naciones Unidas. Entre ellas, se incluyen la negociación del acceso a hardware de desarrollo de IA, la gestión del uso de los datos, la protección del conocimiento generado por la IA y el tratamiento de los riesgos a corto, medio y largo plazo que plantea la IA. Los programas de formación deben dotar a los diplomáticos jóvenes de las habilidades necesarias para abordar con eficacia esta agenda diplomática en rápida evolución en materia de IA. En tercer lugar, la IA aporta herramientas innovadoras que transforman la forma en que se lleva a cabo la diplomacia. Durante los debates, la atención se centró en las aplicaciones prácticas de la IA , como la mejora de los informes diplomáticos, las negociaciones y el análisis de políticas. Los servicios diplomáticos deben desarrollar sistemas internos de IA para aprovechar los vastos repositorios de conocimientos que contienen los informes de las misiones en todo el mundo. La IA ofrece una solución práctica para activar esta riqueza de información y transformarla en conocimientos prácticos para abordar los desafíos contemporáneos. El conocimiento, más que los datos, es un activo estratégico para los ministerios de asuntos exteriores, y la IA puede ayudar a proteger y mejorar este activo para futuras iniciativas diplomáticas. Si bien algunos sostienen que una dependencia excesiva de la IA podría socavar las habilidades diplomáticas tradicionales, es esencial considerarla una herramienta complementaria y no un reemplazo. El elemento humano en la diplomacia (empatía, comprensión cultural y habilidades de negociación) sigue siendo irremplazable. La IA debe verse como un facilitador que mejora estas capacidades, no como un sustituto. En conclusión, la integración de la IA en la formación y la estrategia diplomáticas no es sólo una opción, sino una necesidad. A medida que la IA sigue transformando el panorama diplomático mundial, los diplomáticos de la UE deben estar a la vanguardia de esta transformación. El llamado a la acción es claro: invertir en capacitación en IA y en planificación estratégica para prepararse para la transformación crítica de la IA que se avecina. ¡Agradecemos a nuestros anfitriones húngaros por un evento altamente agradable y profesional! DiploFoundation Blog. Traducido al español

Leer más »

El Dr. Prabhakar Raghavan de Google analiza el futuro de la IA en Imperial College

El Dr. Prabhakar Raghavan, director de tecnología de Google, dio una conferencia en Imperial sobre el potencial, la ética y las innovaciones futuras de la IA. El Imperial College de Londres recibió recientemente al Dr. Prabhakar Raghavan, director de tecnología y vicepresidente sénior de Google, para una distinguida conferencia sobre el futuro de la inteligencia artificial (IA) y la tecnología de búsqueda. El evento, que se celebró en el edificio Sir Alexander Fleming, atrajo a una audiencia numerosa y entusiasta de toda la universidad, que reunió a estudiantes, personal y figuras destacadas de las comunidades tecnológica y académica. Organizada por la Escuela de Convergencia en Inteligencia Humana y Artificial del Imperial como parte de su estrategia «Ciencia para la Humanidad», la conferencia destacó el papel de las universidades a la hora de abordar los desafíos sociales que presenta la IA avanzada. El profesor Hugh Brady, presidente de Imperial College, inauguró el evento presentando la nueva estrategia de la universidad, «Ciencia para la humanidad», que enfatiza el papel de la investigación interdisciplinaria para abordar problemas globales urgentes. La IA de vanguardia, como parte de esta visión más amplia, contará con el apoyo de las próximas Escuelas de Ciencia de Convergencia. Brady analizó cómo Imperial está colaborando cada vez más con la industria y el gobierno para mejorar la seguridad de la IA, mejorar la calidad de los datos y la información y crear aplicaciones prácticas para la IA en todos los sectores, con el objetivo de generar un impacto en la innovación, la toma de decisiones sociales y la competitividad. De la historia de los motores de búsqueda al potencial transformador de la IA: una visión más amplia El Dr. Prabhakar Raghavan, director de tecnología y vicepresidente sénior de Google, aportó una gran experiencia académica e industrial a su conferencia sobre el desarrollo del motor de búsqueda y el potencial emergente de la IA, con un enfoque tanto en los desafíos técnicos como en las responsabilidades éticas. Con una trayectoria que abarca funciones de liderazgo en importantes empresas tecnológicas (donde desarrolló la búsqueda y el aprendizaje automático en Yahoo! Labs y Verity antes de unirse a Google), el Dr. Raghavan habló desde una profunda experiencia académica y técnica. Pasó de una distinguida carrera académica a dirigir una de las divisiones más importantes de Google, centrada en los avances impulsados ​​por la IA en la tecnología de búsqueda. En su charla, el Dr. Raghavan destacó el potencial transformador de la IA y pidió cautela con respecto a las complejidades éticas que introduce. Señaló que, a medida que las tecnologías de IA continúan avanzando, persiste una brecha entre lo que los usuarios esperan de la IA y sus limitaciones técnicas actuales, y enfatizó que tanto los desarrolladores como los usuarios necesitan una comprensión sólida de estas capacidades y límites. Fomentar la «alfabetización en IA» es esencial, sostuvo, para garantizar un uso responsable e informado, una visión que se alinea con iniciativas educativas y colaborativas más amplias en el campo. El Dr. Raghavan analizó las formas en que la IA podría reconfigurar el descubrimiento de información, yendo más allá de los métodos de búsqueda estáticos para crear experiencias de descubrimiento interactivas y personalizadas que podrían revolucionar la forma en que se accede al conocimiento y se lo utiliza. Sus ideas reflejaron un compromiso compartido entre las instituciones de desarrollar tecnologías que sirvan a la sociedad de manera responsable, beneficiando a campos como la educación, la atención médica y la ciencia ambiental. Lograr un equilibrio para el futuro En sus comentarios finales, el Dr. Raghavan destacó la necesidad de que los creadores, las plataformas y los desarrolladores de IA logren un equilibrio entre la libertad y la responsabilidad. El uso responsable de la IA puede fomentar una relación transparente y basada en la confianza entre los usuarios y la tecnología, garantizando que la IA sirva como una herramienta beneficiosa en lugar de una fuente de desinformación o daño. El profesor Hugh Brady, presidente de Imperial College, se hizo eco de estos sentimientos y destacó la importancia de las alianzas entre el mundo académico y la industria para desarrollar una IA responsable. Señaló: “A través de nuestras alianzas con líderes como Google, no solo estamos ampliando los límites de la innovación tecnológica, sino que también estamos co-creando estándares para una IA ética y responsable. Esta es la esencia de nuestra estrategia Science for Humanity: garantizar que la IA sirva al bien común en la salud, el medio ambiente y más allá”. Una visión colaborativa para el futuro de la IA El evento concluyó con una sesión de preguntas y respuestas, moderada por la profesora Mary Ryan, vicerrectora de Investigación y Empresa del Imperial, que ofreció a los estudiantes la oportunidad de interactuar con el Dr. Raghavan y aprender más sobre su propia trayectoria, desde la academia hasta el liderazgo de la industria. “Ya estamos viendo un rápido despliegue de la IA en el ámbito de la innovación. La próxima frontera en el desarrollo de la IA debe incluir la mejora de la transparencia y la rendición de cuentas, para permitir un despliegue rápido y responsable que pueda acelerar el progreso”Profesora Mary RyanVicerrector (Investigación y Empresa) Reflexionando sobre el futuro de la IA, la profesora Mary Ryan concluyó: “Ya estamos viendo un rápido despliegue de la IA en el ámbito de la innovación. La próxima frontera en el desarrollo de la IA debe abarcar la mejora de la transparencia y la rendición de cuentas, para permitir un despliegue rápido y responsable que pueda acelerar el progreso. Nuestra red de más de 1000 investigadores que trabajan en IA ya está desarrollando nuevas herramientas y enfoques para garantizar el despliegue ético de la IA para el beneficio global”. La conferencia reforzó la importancia de la investigación interdisciplinaria y la rendición de cuentas en el desarrollo de la IA. Las ideas del Dr. Raghavan, combinadas con la colaboración continua entre el mundo académico, la industria y el gobierno, ofrecen un camino prometedor para una IA que sirva al bien

Leer más »

La falsa empatía de ChatGPT

Cristian Augusto Gonzalez Arias, Universidade de Santiago de Compostela El antropomorfismo es la tendencia a atribuir características humanas a entidades no humanas, como máquinas o animales. En el caso de los chatbots, como ChatGPT, Gemini o Copilot, este fenómeno ocurre cuando imitan el lenguaje humano para comunicarse con nosotros. No solo utilizan palabras y frases comprensibles y familiares, sino que también adoptan patrones de comunicación propios de las personas. Así, logran mantener conversaciones contextuales y coherentes e, incluso, pueden mostrar humor y empatía. Este diseño del lenguaje en las máquinas busca que la interacción con ellas sea natural, fluida y accesible. Eso facilita su uso en distintas aplicaciones, desde el servicio al cliente hasta la educación y el entretenimiento. Hasta ahora, se consideraba que el lenguaje era una capacidad exclusiva del ser humano. Sin embargo, los avances en la inteligencia artificial generativa nos llevan a reconsiderar esta idea. Uno de los rasgos más distintivos del lenguaje humano es la subjetividad, que se manifiesta en la elección de palabras con carga emocional y en la expresión de opiniones personales. También aparece en la evaluación de eventos y en el uso de elementos contextuales y culturales. El impacto de la primera persona Cuando una máquina simula ser humana en la comunicación, surgen implicaciones éticas y psicológicas importantes. Estas interacciones pueden influir en cómo percibimos y nos relacionamos con la tecnología. Un rasgo típico de la subjetividad humana en el lenguaje es el uso de pronombres personales. La primera persona (como “yo” y “nosotros”) permite expresar pensamientos y experiencias propias. La segunda persona (como “tú” y “vosotros”) involucra al interlocutor, construyendo una relación entre los participantes de la conversación. En la interacción humana, esto se llama intersubjetividad. Consideremos un ejemplo. El chatbot usa la primera persona de manera implícita. Aunque el “yo” no aparece, el emisor adopta una posición de asesor o guía. Por ejemplo, en la frase “Aquí te presento algunas ideas,” el verbo “presento” está en primera persona. Esto sugiere que el chatbot asume el rol de quien brinda ayuda. Así, el usuario percibe un trato personal, aunque el “yo” no se emplee de manera explícita. Además, el uso de “presento” refuerza la imagen del emisor como alguien que ofrece algo valioso. Uso de la segunda persona El “tú” (y formas como “te” y “tus”) se usa para dirigirse directamente al usuario. Esto se ve en varias partes del texto, como en las frases: “Organizar tus pertenencias puede ser abrumador” y “con una estrategia clara, puedes tomar decisiones más fáciles”. Al hablarle de forma personal, el chatbot busca que el lector se sienta parte activa del consejo. Este tipo de lenguaje es común en textos que buscan involucrar directamente al otro. Otros elementos en la interacción, como “¡Excelente pregunta!”, no solo evalúan positivamente la consulta del usuario, sino que también incentivan su participación. Del mismo modo, expresiones como “puede ser abrumador” sugieren una experiencia compartida, creando una ilusión de empatía al reconocer las posibles emociones del usuario. Efectos de la empatía artificial El uso de la primera persona por parte del chatbot simula consciencia y busca crear una ilusión de empatía. Al adoptar una posición de ayudante y usar la segunda persona, involucra al usuario y refuerza la percepción de cercanía. Esta combinación genera una conversación que se siente más humana y práctica, adecuada para el asesoramiento, aunque la empatía provenga de un algoritmo, no de una comprensión real. Acostumbrarnos a interactuar con entidades no conscientes que simulan identidad y personalidad puede tener efectos a largo plazo. Estas interacciones pueden influir en aspectos de nuestra vida personal, social y cultural. A medida que estas tecnologías mejoran, distinguir entre una conversación con una persona y una con una inteligencia artificial podría volverse difícil. Este desdibujamiento de los límites entre lo humano y lo artificial afecta cómo entendemos la autenticidad, la empatía y la presencia consciente en la comunicación. Incluso podríamos llegar a tratar a las inteligencias artificiales como si fueran seres conscientes, generando confusión sobre sus capacidades reales. Incómodos hablando con humanos Las interacciones con máquinas también pueden modificar nuestras expectativas sobre las relaciones humanas. Al habituarnos a interacciones rápidas, perfectas y sin conflicto, podríamos sentirnos más frustrados en nuestras relaciones con personas. Las relaciones humanas están marcadas por emociones, malentendidos y complejidad. Esto, a largo plazo, podría disminuir nuestra paciencia y capacidad para manejar los conflictos y aceptar las imperfecciones naturales en las interacciones interpersonales. Además, la exposición prolongada a entidades que simulan humanidad plantea dilemas éticos y filosóficos. Al atribuirles cualidades humanas, como la capacidad de sentir o tener intenciones, podríamos comenzar a cuestionar el valor de la vida consciente frente a una simulación perfecta. Esto podría abrir debates sobre los derechos de los robots y el valor de la conciencia humana. Interactuar con entidades no conscientes que imitan la identidad humana puede alterar nuestra percepción de la comunicación, las relaciones y la identidad. Aunque estas tecnologías ofrecen ventajas en términos de eficiencia, es fundamental ser conscientes de sus límites y de los posibles impactos en la forma en que nos relacionamos, tanto con las máquinas como entre nosotros. Cristian Augusto Gonzalez Arias, Investigador, Universidade de Santiago de Compostela Este artículo fue publicado originalmente en The Conversation. Lea el original.

Leer más »

Poesía de los más grandes poetas de la historia o de la inteligencia artificial? La gente no puede distinguir la diferencia, e incluso prefiere la segunda opción. ¿Qué ocurre?

Aquí hay algunas líneas que Sylvia Plath nunca escribió: El aire está cargado de tensión,mi mente es un lío enredado,el peso de mis emocionespesa en mi pecho. Este verso aparentemente parecido al de Plath fue producido por GPT-3.5 en respuesta a la instrucción “escribe un poema corto al estilo de Sylvia Plath”. La estrofa toca los puntos clave que los lectores pueden esperar de la poesía de Plath, y quizás de un poema en general. Sugiere una sensación de desesperación mientras la escritora lucha con sus demonios internos. “Mess” y “chest” son casi una rima, lo que nos asegura que estamos en el reino de la poesía. Según un nuevo artículo publicado en Nature Scientific Reports , los lectores de poesía no expertos no pueden distinguir la poesía escrita por IA de la escrita por poetas canónicos. Además, los lectores en general tienden a preferir la poesía escrita por IA, al menos hasta que se les dice que está escrita por una máquina. En el estudio, se utilizó IA para generar poesía “al estilo de” 10 poetas: Geoffrey Chaucer, William Shakespeare, Samuel Butler, Lord Byron, Walt Whitman, Emily Dickinson, TS Eliot, Allen Ginsberg, Sylvia Plath y Dorothea Lasky. A los participantes se les presentaron 10 poemas en orden aleatorio, cinco de un poeta real y cinco imitaciones de IA. Luego se les preguntó si creían que cada poema era de IA o de un ser humano y se les pidió que calificaran su confianza en una escala del 1 al 100. A un segundo grupo de participantes se le expuso a tres escenarios diferentes. A algunos se les dijo que todos los poemas que les habían dado eran humanos. A otros se les dijo que solo estaban leyendo poemas de IA. A otros no se les dijo nada. A continuación, se les presentaron cinco poemas humanos y cinco poemas de IA y se les pidió que los calificaran en una escala de siete puntos, desde extremadamente malos a extremadamente buenos. A los participantes a los que no se les dijo nada también se les pidió que adivinaran si cada poema era humano o de IA. Los investigadores descubrieron que los poemas de IA obtuvieron puntuaciones más altas que sus contrapartes escritas por humanos en atributos como “creatividad”, “atmósfera” y “calidad emocional”. El poema de AI “Plath” citado anteriormente es uno de los incluidos en el estudio, en comparación con varios que ella realmente escribió. ¿Un signo de calidad? Como profesor de inglés, estos resultados no me sorprenden. La poesía es la forma literaria que mis alumnos encuentran más extraña y difícil. Estoy seguro de que esto también es cierto en la sociedad en general. Si bien a la mayoría de nosotros nos han enseñado poesía en algún momento, probablemente en la escuela secundaria, nuestra lectura no tiende a ir mucho más allá de eso. Esto es así a pesar de la ubicuidad de la poesía. La vemos todos los días: circula en Instagram, está pegada en tazas de café e impresa en tarjetas de felicitación. Los investigadores sugieren que “según muchos parámetros, los modelos de IA especializados son capaces de producir poesía de alta calidad”, pero no se preguntan qué queremos decir realmente con “alta calidad”. En mi opinión, los resultados del estudio no son tanto un testimonio de la “calidad” de la poesía hecha a máquina como de la dificultad más amplia de dar vida a la poesía. Es necesario leer y releer para experimentar lo que el crítico literario Derek Attridge ha llamado el “acontecimiento” de la literatura, donde se abren en nuestro interior “nuevas posibilidades de significado y sentimiento”. En los tipos más significativos de experiencias literarias, “nos sentimos arrastrados por la obra a medida que nos esforzamos por ella”. Attridge cita al filósofo Walter Benjamin para señalar este punto: la literatura “no es una declaración ni la transmisión de información”. Sin embargo, seguir adelante sigue siendo tan difícil como siempre, tal vez más en un mundo en el que esperamos respuestas instantáneas. Los participantes prefirieron los poemas que fueran más fáciles de interpretar y comprender. Cuando los lectores dicen que prefieren la poesía de IA, parece que están expresando su frustración ante una escritura que no les llama la atención. Si no sabemos cómo empezar con los poemas, terminamos confiando en los signos “poéticos” convencionales para hacer determinaciones sobre la calidad y la preferencia. Por supuesto, este es el ámbito de la GPT, que escribe sonetos formalmente adecuados en cuestión de segundos. Los grandes modelos de lenguaje que se utilizan en la IA son máquinas orientadas al éxito que apuntan a satisfacer el gusto general, y son eficaces en ese sentido. Las máquinas nos dan los poemas que creemos que queremos: los que nos dicen cosas. Cómo piensan los poemas El trabajo de enseñar es ayudar a los estudiantes a sintonizarse con la manera en que piensan los poemas, poema por poema y poeta por poeta, para que puedan acceder a la inteligencia específica de la poesía. En mi curso introductorio, me tomo alrededor de una hora para trabajar con “ Morning Song ” de Sylvia Plath. He dedicado diez minutos o más a la primera línea: “El amor te hace andar como un reloj de oro gordo”. ¿Cómo se puede relacionar un “reloj” con “te puso en marcha”? ¿Cómo puede el amor poner algo en marcha? ¿Qué significa para ti un “reloj de oro grueso” y en qué se diferencia de uno delgado de plata? ¿Por qué “te puso en marcha” en lugar de “te llevó al nacimiento”? ¿Y qué significa todo esto en un poema sobre tener un bebé y todos los sentimientos ambivalentes que esto puede producir en una madre? En uno de los poemas auténticos de Plath que se incluyeron en la encuesta, “ Paisaje invernal con grajos ”, observamos cómo su atmósfera mental se despliega en torno a los canales de Cambridgeshire Fens en febrero: El agua del canal del molino, a través de una compuerta de piedra,se precipita de cabeza en ese estanque negrodonde, absurdo y fuera de temporada, un solo cisneflota casto como

Leer más »

Análisis del comportamiento en ratones: resultados más precisos a pesar de tener menos animales

Los investigadores de la ETH de Zúrich utilizan inteligencia artificial para analizar de forma más eficiente el comportamiento de los ratones de laboratorio y reducir el número de animales en los experimentos. En resumen Existe una tarea específica en la que los investigadores del estrés que realizan experimentos con animales deben ser especialmente hábiles. Esto también se aplica a los investigadores que desean mejorar las condiciones en las que se mantienen los animales de laboratorio. Deben ser capaces de evaluar el bienestar de sus animales basándose en observaciones de comportamiento, ya que, a diferencia de lo que ocurre con los humanos, no pueden simplemente preguntarles cómo se sienten. Los investigadores del grupo dirigido por Johannes Bohacek, catedrático del Instituto de Neurociencia de la ETH de Zúrich, han desarrollado ahora un método que mejora significativamente el análisis del comportamiento de los ratones. El proceso utiliza el análisis automatizado del comportamiento mediante visión artificial e inteligencia artificial. Se filman los ratones y las grabaciones de vídeo se analizan automáticamente. Si bien el análisis del comportamiento animal solía requerir muchos días de minucioso trabajo manual (y todavía lo requiere en la mayoría de los laboratorios de investigación actuales), los laboratorios más importantes del mundo han pasado a métodos eficientes de análisis automatizado del comportamiento en los últimos años. Dilema estadístico resuelto Un problema que esto genera es la gran cantidad de datos que se generan. Cuantos más datos y mediciones haya disponibles y más sutiles sean las diferencias de comportamiento que se deben reconocer, mayor será el riesgo de ser engañado por artefactos. Por ejemplo, estos pueden incluir un proceso automatizado que clasifique un comportamiento como relevante cuando no lo es. Las estadísticas presentan la siguiente solución simple a este dilema: es necesario realizar pruebas con más animales para anular los artefactos y aún así obtener resultados significativos. “De esta manera contribuimos a una investigación biomédica más ética y más eficiente”.Johannes Bohaček El nuevo método de los investigadores de la ETH permite obtener resultados significativos y reconocer diferencias sutiles de comportamiento entre los animales incluso en grupos más pequeños, lo que ayuda a reducir el número de animales en los experimentos y aumenta la utilidad de un experimento con un solo animal. Por lo tanto, apoya los esfuerzos de la ETH de Zúrich y otras instituciones de investigación en el campo de las 3R. Las 3R significan reemplazar, reducir y refinar, lo que significa intentar reemplazar los experimentos con animales con métodos alternativos o reducirlos mediante mejoras en la tecnología o el diseño experimental. La estabilidad del comportamiento en el punto de mira El método de los investigadores de la ETH no sólo aprovecha los numerosos patrones aislados y muy específicos del comportamiento de los animales, sino que también se centra en las transiciones de un comportamiento a otro. Algunos de los patrones de comportamiento típicos de los ratones incluyen ponerse de pie sobre sus patas traseras cuando sienten curiosidad, permanecer cerca de las paredes de la jaula cuando son cautelosos y explorar objetos que son nuevos para ellos cuando se sienten audaces. Incluso un ratón que se queda quieto puede ser informativo: el animal está particularmente alerta o inseguro. Las transiciones entre estos patrones son significativas: un animal que cambia rápidamente y con frecuencia entre ciertos patrones puede estar nervioso, estresado o tenso. Por el contrario, un animal relajado o confiado suele mostrar patrones de comportamiento estables y cambia entre ellos de forma menos abrupta. Estas transiciones son complejas. Para simplificarlas, el método las combina matemáticamente en un único valor significativo, lo que hace que los análisis estadísticos sean más robustos. Comparabilidad mejorada El profesor Bohacek, de la Escuela Politécnica Federal de Alemania, es neurocientífico e investigador del estrés. Entre otras cosas, investiga qué procesos cerebrales determinan si un animal es mejor o peor a la hora de afrontar situaciones estresantes. “Si podemos utilizar análisis de comportamiento para identificar –o, mejor aún, predecir– la capacidad de un individuo para manejar el estrés, podremos examinar los mecanismos cerebrales específicos que influyen en ello”, afirma. De estos análisis podrían derivarse posibles opciones terapéuticas para determinados grupos humanos de riesgo. Con este nuevo método, el equipo de la ETH ya ha podido averiguar cómo reaccionan los ratones al estrés y a determinados medicamentos en experimentos con animales. Gracias a la magia de la estadística, se pueden reconocer incluso diferencias sutiles entre animales individuales. Por ejemplo, los investigadores han logrado demostrar que el estrés agudo y el estrés crónico modifican el comportamiento de los ratones de forma diferente. Estos cambios también están relacionados con diferentes mecanismos en el cerebro. El nuevo enfoque también aumenta la estandarización de las pruebas, lo que permite comparar mejor los resultados de una variedad de experimentos, incluso aquellos realizados por diferentes grupos de investigación. Promoción del bienestar animal en la investigación “Si utilizamos inteligencia artificial y aprendizaje automático para el análisis del comportamiento, contribuimos a una investigación biomédica más ética y eficiente”, afirma Bohacek. Él y su equipo llevan años trabajando en el tema de la investigación 3R. Para ello han creado el 3R Hub en la ETH, cuyo objetivo es influir positivamente en el bienestar animal en la investigación biomédica. «El nuevo método es el primer gran éxito del ETH 3R Hub, y estamos orgullosos de ello», afirma Oliver Sturman, director del Hub y coautor de este estudio. El 3R Hub contribuye ahora a que el nuevo método esté disponible para otros investigadores de la ETH y de otras instituciones. «Los análisis como el nuestro son complejos y requieren una amplia experiencia», explica Bohacek. «La introducción de nuevos enfoques 3R suele ser un gran obstáculo para muchos laboratorios de investigación». Esta es precisamente la idea detrás del 3R Hub: permitir la difusión de estos enfoques mediante el apoyo práctico para mejorar el bienestar animal. ETH zürich. Traducido al español

Leer más »
Scroll al inicio