La inteligencia artificial (IA) ha crecido exponencialmente y ha transformado las industrias en todo el mundo. A medida que se expanden sus casos de uso, han surgido preocupaciones en torno a la ética, la transparencia de los datos y el cumplimiento normativo. Chloé Wade, vicepresidenta de IDA Ireland, analiza la importancia de los marcos éticos de IA, las pautas regulatorias y las estrategias internas para garantizar una implementación responsable de la IA.
La inteligencia artificial (IA) y sus múltiples usos han experimentado un crecimiento exponencial en los últimos años, convirtiéndose en una de las tecnologías más populares y debatidas de la década. Chloé Wade, vicepresidenta de Servicios Financieros Internacionales para el Reino Unido en IDA Ireland, analiza la importancia de implementar directrices internas y cumplir con las nuevas regulaciones gubernamentales, con la idea de que se debe priorizar la IA ética.
Los últimos avances en IA y su popularidad han captado la atención mundial, creando titulares y generando debates en todo el mundo. Más de 100 millones de usuarios semanales están acudiendo en masa al Chat GPT de Open AI, y continuamente surgen nuevos casos de uso a medida que se continúa explorando el potencial de esta tecnología, desde su uso en el diagnóstico médico hasta la fabricación de robótica y automóviles autónomos. Un estudio realizado por la Oficina de Estadísticas Nacionales el año pasado descubrió que una de cada seis organizaciones del Reino Unido ha implementado alguna forma de IA, lo que contribuye a un mercado valorado en más de £16.8 mil millones.[1]
Este rápido crecimiento plantea interrogantes sobre las implicaciones éticas de esta tecnología. Otro estudio de Forbes Advisor reveló que más de la mitad de la población del Reino Unido está preocupada por el uso de la IA, en particular en lo que respecta a la desinformación, la privacidad, la transparencia y los efectos de desplazamiento. [2]
¿Cuáles son estas preocupaciones, cómo están respondiendo los organismos reguladores y cuáles son las tres consideraciones clave para garantizar un marco ético de IA?
Orientación regulatoria proveniente de la UE
Una encuesta reciente de YouGov reveló las dos principales preocupaciones en torno a la IA: el 50% de los líderes empresariales del Reino Unido se centran en la futura regulación de la IA y el 46% en el uso de datos no válidos o sesgados. [3]
Se están estableciendo nuevas medidas para garantizar que la IA tenga una orientación ética, en particular la Ley de Inteligencia Artificial de la UE de 2024, que entró en vigor oficialmente el 1 de agosto de 2024. A pesar de su naturaleza rígida, varias naciones están desarrollando marcos similares a los de la Comisión Europea para proteger al público y, al mismo tiempo, alentar a las organizaciones a aprovechar los numerosos beneficios de la IA.
El Reino Unido ha adoptado un «enfoque pro innovación» para la regulación de la IA, pero aún no ha introducido un estatuto propio. Aunque se propuso un proyecto de ley regulatorio en marzo de 2024, todavía está siendo revisado. De hecho, la Ley de IA de la UE afecta a algunas empresas del Reino Unido: aquellas que «desarrollan o implementan un sistema de IA que se utiliza en la UE», según el CBI. Sin embargo, inculcar valores morales y éticos en estos modelos, especialmente en contextos de toma de decisiones importantes, presenta un desafío. Los códigos éticos en las empresas y los marcos regulatorios son dos formas principales de implementar la ética de la IA.
Abordar en profundidad la ética y la responsabilidad en el desarrollo de software de IA puede proporcionar una ventaja competitiva sobre aquellos que descuidan estas cuestiones. Los informes y las evaluaciones se están volviendo esenciales a medida que regulaciones como la Ley de IA de la UE se vuelven efectivas para ayudar a las empresas a gestionar los riesgos asociados con la IA. El espíritu es garantizar que los sistemas de IA ayuden en lugar de reemplazar la toma de decisiones humana. La IA carece de la capacidad de tomar decisiones éticas o comprender los matices morales, lo que hace necesaria la supervisión humana, especialmente en aplicaciones críticas que afectan el bienestar y la justicia social. Se debe alentar el uso de la IA como herramienta para mejorar la eficiencia y la productividad de los trabajadores, al tiempo que se mantiene la alineación con la nueva legislación y los códigos éticos, como el Código de Conducta de BCS. [4]
Pasos clave para la implementación interna de una IA ética
Irlanda es un país que ha establecido una cantidad sustancial de procesos básicos para prepararse para el esperado crecimiento exponencial a largo plazo del mercado de IA. Con la publicación de la estrategia nacional de IA ‘AI—Here for Good’ [5], el gobierno irlandés espera que las organizaciones civiles y de servicio público adopten la IA de manera responsable e innovadora para mejorar la prestación de los servicios públicos actuales y nuevos. Irlanda ha ordenado que todas las aplicaciones de IA dentro del servicio público se adhieran a siete pautas éticas de IA, como se describe por el Grupo de expertos de alto nivel de la Comisión Europea sobre IA en sus Pautas éticas para una IA confiable. [6] Pero, ¿qué deberían hacer las empresas internamente?
- Comprender el papel de la IA dentro de la empresa y cómo se utilizan los datos.
Las empresas deben reconocer en primer lugar la naturaleza cooperativa de la IA y cómo se pueden crear impactos positivos. Durante las etapas preliminares de implementación, los líderes empresariales deben abordar cómo procesan, almacenan y extraen datos dentro de su ecosistema de valor. Dado que los objetivos organizacionales y las estrategias corporativas difieren entre las empresas, se deben explorar las capacidades de modelos de IA específicos, incluidos los modelos de aprendizaje automático (ML) y los modelos generativos, para determinar el uso óptimo de esta tecnología dentro de las operaciones.
Existen varias estrategias que pueden aumentar la confiabilidad del software de IA. La evaluación de riesgos es un aspecto fundamental de estos procesos, como herramienta para que los desarrolladores e ingenieros de sistemas determinen si los casos de uso son de alto riesgo. Esta medida refuerza las consideraciones éticas y el papel de las personas que impulsan los procesos consecuentes. Por ejemplo, se deben utilizar enfoques específicos para cada producto en las empresas que implementan o venden internamente soluciones avanzadas de software de IA B2B, ya que los riesgos asociados con los datos y las tecnologías pueden variar. Luego se desarrolla un conjunto de pautas de IA responsable utilizando estas métricas para describir los pasos clave para mitigar el riesgo y controlar los resultados, específicamente en términos de interpretabilidad, sesgo, validez y confiabilidad. Además de las diversas perspectivas internas, las empresas se beneficiarán enormemente de la colaboración con pares, investigadores y agencias gubernamentales a medida que construyen marcos éticos de IA.
- Implementar procesos de gestión del cambio y generar confianza
La confianza sigue siendo el eje central de todos los desafíos éticos de la IA. Aunque pocos puestos de trabajo completos se automatizarán en el futuro cercano, cada vez hay más tareas que se están automatizando. El riesgo de los efectos del desplazamiento y la transformación digital han hecho que los profesionales teman sobre sus propias carreras, lo que significa que generar confianza es un principio fundamental en cualquier programa de IA ético. Por lo tanto, las empresas pueden considerar la posibilidad de proporcionar recursos y oportunidades para ayudar a su fuerza laboral a familiarizarse con la tecnología de IA, independientemente de sus responsabilidades específicas. Identificar nuevos roles, mejorar las habilidades y volver a capacitar a los empleados son planes de crecimiento y métodos de enriquecimiento que se pueden aprovechar para reducir las posibles ansiedades a largo plazo.
Además de las creencias internas, la confianza es primordial en el nuevo entorno empresarial. Las empresas que comercializan y venden tecnologías de IA deben asegurarse de que sus clientes confíen plenamente en el conocimiento de que los modelos se construyen de manera responsable. En la economía digital, ahora existen razones prácticas y comerciales para abogar por la confianza durante la transformación digital, además de las razones éticas y morales. Las empresas deben centrarse en generar confianza en sus productos y software de IA, así como en toda su organización, para asegurarse de que no se vean obligadas a abandonar el mercado por no adoptar innovaciones radicales y sus desafíos. Por ejemplo, la Estrategia Nacional de IA de Irlanda está profundamente arraigada en la confianza y la transparencia, y su principio central es “garantizar una buena gobernanza para generar confianza y seguridad para que la innovación florezca”.
- Capacitación y creación de equipos especializados
Con la nueva legalización, las empresas tendrán que organizar estratégicamente sus funciones comerciales para responder a esta situación. Se necesita el compromiso y la participación de múltiples niveles organizacionales (como desarrolladores de ingeniería, gerentes de productos, asesores legales y líderes sénior) para llevar a cabo prácticas esenciales y continuas, como mejorar de manera colaborativa el marco de gobernanza de la IA de la empresa.
En la economía digital, es necesario contar con un equipo de expertos en IA especializados y responsables, pero el desarrollo de jóvenes profesionales para impulsar la adquisición de talento es más necesario que nunca. La naturaleza cambiante del trabajo en lo que respecta a los roles y las responsabilidades ha puesto de relieve los desafíos relacionados con la falta de adecuación de las habilidades, la educación y la redistribución. A pesar de estas externalidades, los centros de la Science Foundation Ireland (SFI) dedicados a la IA (ADAPT [7] e Insight [8]) están comprometidos con la formación de graduados cualificados en este campo. Irlanda también fue el primer país del mundo en desarrollar un máster de posgrado en inteligencia artificial en colaboración con la industria. Estas oportunidades demuestran el liderazgo europeo y potencialmente global de Irlanda en materia de IA ética, habiendo sido reconocida como el Centro de Ética de la IA de la UE con organizaciones como el Centro de Ética de la IA Idiro con sede en Dublín, que apoya a las empresas con el cumplimiento, la innovación y las prácticas responsables. Net Media. Reino Unido. C.W. Traducción al español