El Portal de las Tecnologías para la Innovación

Ética y gobernanza de la IA en 2025: entrevista con Phaedra Boinidiris

Fedra Boinodiris

Líder mundial en inteligencia artificial confiable, IBM Consulting

A medida que nos acercamos al final de un año aparentemente ininterrumpido de innovación, escándalo y asombro en materia de IA, la ética y la gobernanza de la tecnología nunca han sido más importantes (ni más inciertas). En esta sesión de preguntas y respuestas de tres partes, recurrimos a la líder global de inteligencia artificial confiable de IBM Consulting, Phaedra Boinidiris, para que nos eche un vistazo a sus predicciones para 2025.

Diseño 3D de bolas rodando sobre una pista.

Las últimas noticias e información sobre IA

Información y noticias seleccionadas por expertos sobre IA, la nube y más en el boletín semanal Think. 

Suscríbete hoy

De cara al año 2025, ¿cuál diría que es el problema ético más importante para la IA?

Es muy sencillo: alfabetización. La alfabetización en IA se refiere a la capacidad de comprender, utilizar y evaluar la inteligencia artificial. La IA se ha vuelto omnipresente en las noticias; cada día nos trae un nuevo titular digno de ciencia ficción. Sin embargo, personas de todo el mundo, en todo tipo de puestos e industrias, todavía no saben siquiera que la están utilizando. Por lo tanto, si bien es fundamental resolver los problemas más noticiosos (y muy reales), como los algoritmos sesgados, la privacidad de los datos, el impacto ambiental y el desplazamiento de puestos de trabajo, etcétera, nada de esto se puede lograr sin un mundo alfabetizado en IA, desde la fuerza laboral hasta el gobierno, los sistemas escolares y más allá.

En segundo lugar, muy de cerca, estaría la rendición de cuentas. Necesitamos personas en puestos de poder financiados que rindan cuentas de los resultados de estos modelos.Mezcla de expertos | Podcast

SearchGPT, from Naptime to Big Sleep, and GitHub Octoverse updates

Descifrando la IA: resumen semanal de noticias

Únase a nuestro panel de clase mundial de ingenieros, investigadores, líderes de productos y más mientras eliminan el ruido de la IA para brindarle lo último en noticias y conocimientos sobre IA.Mira los episodios 

¿Cuál es el mayor obstáculo que prevé en el desarrollo real de una IA ética? 

Para que los equipos de desarrollo reconozcan que crear una IA ética no es estrictamente un problema técnico, sino un problema sociotécnico , y que el equipo que diseña el modelo debe ser multidisciplinario en lugar de estar aislado. Durante décadas, hemos estado diciendo que aquellos que no tienen experiencia en el dominio tradicional no deberían estar en la sala. Eso es un gran paso en falso.

Para construir modelos de IA seleccionados de manera responsable (que, por cierto, también son modelos más precisos), se necesita un equipo compuesto por algo más que científicos de datos que puedan opinar desde el principio sobre cuestiones como «¿esta IA está resolviendo el problema que necesitamos que resuelva? ¿Son estos los datos correctos según los expertos en la materia? ¿Cuáles son sus efectos no deseados? ¿Cómo podemos mitigar esos efectos?». Hay que incorporar a expertos en lingüística y filosofía, padres, jóvenes, gente común con diferentes experiencias de vida y de diferentes orígenes socioeconómicos. Cuanto más amplia sea la variedad, mejor. No se trata de moralidad, se trata de matemáticas .

¿Hacia dónde se dirige la gobernanza de la IA a nivel global?

En todo el mundo estamos siendo testigos de la vieja lucha entre innovación y cumplimiento normativo en lo que respecta a la IA. Sin embargo, acabo de regresar de una presentación en la Comisión Trilateral Europea y me siento muy inspirado por la audaz visión de la UE para la IA.

Es cierto que en la actualidad se invierte mucho menos capital en IA en la UE que en Estados Unidos, y espero sinceramente que esto cambie pronto. Creo que la UE tiene una enorme oportunidad de redoblar sus esfuerzos para mostrar al mundo cómo permitir que los expertos en la materia tengan un mayor control sobre los datos y cómo se utilizan para entrenar a la IA. Creo que la UE podría mostrar al mundo cómo tener enfoques holísticos para la alfabetización en IA que incluyan programas multidisciplinarios. Podría mostrar al mundo cómo certificar a auditores externos que puedan exigir responsabilidades a las organizaciones por los modelos fraudulentos.

En mi opinión, Europa está liderando el camino en muchos aspectos en lo que respecta a la gobernanza de la IA, y espero que otros países sigan su ejemplo. El compromiso de Europa con la incorporación de principios éticos en el desarrollo de la IA no tiene parangón. Se hace hincapié en los derechos humanos en lo que respecta a la protección de la privacidad, la promoción de la transparencia y la mitigación de sesgos no deseados. Y la colaboración interdisciplinaria es enorme con programas como Horizonte Europa y «Cómo cambiar el mundo» y los esfuerzos de la UE por forjar alianzas con países y organizaciones afines.

La IA responsable no se trata solo de lo que podemos construir, sino de por qué y cómo lo hacemos. La diversidad, la equidad y la inclusión son fundamentales para una estrategia de innovación en IA, no solo porque es el camino ético, sino porque las perspectivas diversas impulsan una resolución de problemas más creativa, el acceso equitativo garantiza un impacto social más amplio y el diseño inclusivo reduce los sesgos no deseados, creando tecnología que funciona para todos. IBM News. Traducido al español

Artículos relacionados

Scroll al inicio