El Portal de las Tecnologías para la Innovación

Un nuevo modelo matemático podría garantizar un uso más seguro de la IA y ayudar a proteger la privacidad

Los científicos han desarrollado un nuevo modelo matemático para ayudar a las personas a comprender los riesgos que plantea la IA y ayudar a los reguladores a proteger la privacidad. 

Cada vez se utilizan más herramientas de inteligencia artificial para rastrear y vigilar a personas tanto en línea como en persona, lo que plantea desafíos para el anonimato y la privacidad. Por ejemplo, se están probando herramientas de inteligencia artificial para identificar automáticamente a las personas a partir de sus voces en la banca en línea, sus ojos en la entrega de ayuda humanitaria o sus rostros en la aplicación de la ley.

Algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real.

Los científicos informáticos del Imperial College de Londres, el Oxford Internet Institute y la UCLouvain han creado un método que proporciona un marco científico sólido para evaluar técnicas de identificación, especialmente cuando se trata de datos a gran escala.

Según los investigadores, esto podría ayudar a las organizaciones a lograr un mejor equilibrio entre los beneficios de las tecnologías de IA y la necesidad de proteger la información personal de las personas, haciendo que las interacciones diarias con la tecnología sean más seguras. Su método de prueba permite identificar posibles debilidades y áreas de mejora en las herramientas de IA antes de que se implementen a gran escala. 

Los resultados se publican hoy en Nature Communications .

El profesor asociado Yves-Alexandre de Montjoye, coautor del estudio del Data Science Institute del Imperial College de Londres, dijo: «Nuestra nueva ley de escala proporciona, por primera vez, un modelo matemático basado en principios para evaluar cómo funcionarán las técnicas de identificación a escala. Comprender la escalabilidad de la identificación es esencial para evaluar los riesgos que plantean estas técnicas de reidentificación, incluso para garantizar el cumplimiento de las legislaciones modernas de protección de datos en todo el mundo». 

La seguridad de los datos es vitalEl método se basa en el campo de las estadísticas bayesianas para aprender cómo son identificables los individuos a pequeña escala y extrapolar la precisión de la identificación a poblaciones más grandes hasta 10 veces mejor que las heurísticas y reglas generales anteriores. Esto le da al método un poder único para evaluar cómo funcionarán las diferentes técnicas de identificación de datos a escala, en diferentes aplicaciones y entornos de comportamiento. Esto puede ayudar a explicar por qué algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real.

El autor principal, el Dr. Luc Rocher, investigador principal del Oxford Internet Institute, parte de la Universidad de Oxford, dijo: «Vemos nuestro método como un nuevo enfoque para ayudar a evaluar el riesgo de reidentificación en la divulgación de datos, pero también para evaluar las técnicas de identificación modernas en entornos críticos y de alto riesgo. En lugares como hospitales, entrega de ayuda humanitaria o control fronterizo, lo que está en juego es increíblemente alto y la necesidad de una identificación precisa y confiable es primordial.

 “Creemos que este trabajo constituye un paso crucial hacia el desarrollo de métodos basados ​​en principios para evaluar los riesgos que plantean las técnicas de inteligencia artificial cada vez más avanzadas y la naturaleza de la identificabilidad de los rastros humanos en línea. Esperamos que este trabajo sea de gran ayuda para investigadores, responsables de protección de datos, comités de ética y otros profesionales que busquen un equilibrio entre compartir datos para la investigación y proteger la privacidad de los pacientes, los participantes y los ciudadanos”. Imperial College London News. Traducido al español

Artículos relacionados

Scroll al inicio