En un artículo publicado en The Conversation, Ali Akbar Septiandri (UCL Statistical Science) explica cómo podemos prevenir el sesgo en el uso de la IA en el mundo médico.
Los pacientes que son tratados en la sala de cuidados intensivos (UCI), generalmente están conectados a un tubo intravenoso y a una serie de dispositivos médicos . El uso de dispositivos médicos, como los monitores de signos vitales, tiene como objetivo monitorear los signos vitales del paciente , como la frecuencia cardíaca, la presión arterial y la saturación (niveles de oxígeno en la sangre).
Estos dispositivos médicos son ricos en datos útiles para respaldar el diagnóstico; el proceso ahora se ve facilitado en gran medida por la tecnología de inteligencia artificial (IA). Por ejemplo, la tecnología de IA puede ayudar a monitorear el estado de los pacientes que han sufrido una cardiopatía , leer documentos clínicos , predecir la progresión de las condiciones de los pacientes con COVID-19 , identificar signos observables (fenotipos clínicos) de sepsis y determinar la estrategia óptima de tratamiento del paciente .
El problema es que no todos los modelos de IA (programas entrenados para reconocer patrones) son capaces de producir la ayuda que necesitan los médicos para diagnosticar a los pacientes. Además, las fuentes de datos que procesarán los médicos son muy diversas: desde los resultados de las lecturas de los dispositivos médicos en la UCI, los análisis de muestras de sangre en el laboratorio, hasta el historial de salud del paciente.
La diversidad de fuentes de datos hace que el proceso de toma de decisiones médicas se vuelva más complejo. A medida que aumenta la complejidad de los casos manejados, los resultados de las lecturas de IA se vuelven cada vez más transparentes.
Esta condición puede exacerbar el sesgo, ya sea que usted se dé cuenta o no, afectando las acciones médicas que realizan los médicos.
La IA es vulnerable a exacerbar los sesgos contra las medidas médicas
En el mundo médico, algunos estudios destacan una serie de sesgos que pueden influir en las decisiones de los médicos. Un estudio de 2019, por ejemplo, reveló que las pacientes mujeres tenían más riesgo de sufrir una reducción o interrupción de los cuidados intensivos que los hombres. Esta tendencia se produce incluso después de tener en cuenta otros factores, como la edad avanzada y el estado crítico del paciente.
Otro estudio concluyó que existe desigualdad en la atención médica entre las razas negra y blanca en los Estados Unidos (EE. UU.). Esta desigualdad hace que la tasa de mortalidad de los pacientes negros en la UCI sea mayor que la de los blancos.
El sesgo en el mundo médico supuestamente empeorará si los médicos solo confían en modelos de IA para diagnosticar enfermedades, sin analizar los datos utilizando la razón . Especialmente cuando los modelos de IA aprenden patrones a partir de datos sesgados debido a procesos de muestreo subóptimos y desigualdades sociales que limitan el acceso de las personas a los centros de atención médica.
Este fenómeno es como si los estudiantes hicieran tareas universitarias usando ChatGPT , sin revisar críticamente los resultados.
Los modelos de IA prometen una mayor precisión y personalización para ayudar en el diagnóstico. Sin embargo, los resultados se procesan a partir de datos muy complejos y de gran tamaño, por lo que aún se necesita un análisis humano antes de tomar medidas médicas.
Sin escepticismo sobre esta tecnología, el impacto podría ser fatal .
Prevenir sesgos en el uso de IA en el mundo médico
Lamentablemente, en el campo, a menudo hay una tendencia a automatizar el proceso de toma de decisiones para acciones médicas con el argumento de la eficiencia de los recursos de cuidados intensivos .
Por ejemplo, en el caso de la pandemia de COVID-19, la presión sobre el uso de las UCI ha fomentado la automatización de los procesos de toma de decisiones, como la asignación de camas a los pacientes. En este tipo de situación precaria, la posibilidad de tomar atajos confiando en modelos de IA sin criticar el proceso se vuelve mayor. De hecho, se alega que una serie de cuestiones de acceso a los servicios de salud , como la cobertura de seguros limitada, los horarios de trabajo rígidos de los trabajadores de la salud y la gran distancia hasta los centros de salud más cercanos, exacerban los sesgos en el mundo médico.
Los modelos de IA que a menudo toman decisiones basadas en sesgos existentes aprenderán estos patrones como algo común y luego los interpretarán como conocimiento importante en el proceso de toma de decisiones.
Por lo tanto, se necesitan medidas preventivas para evitar sesgos debido a la adopción de tecnología médica basada en IA, entre ellas:
1. Educación en IA para profesionales de la salud
Es necesario educar a los profesionales de la salud sobre la IA para que sean más cuidadosos con el potencial y las limitaciones de esta tecnología en rápido desarrollo.
Las instituciones de educación sanitaria deberían revisar sus planes de estudio e incorporar la IA como materia de estudio. Este método puede ayudar a cambiar la mentalidad de los profesionales de la salud con respecto al uso de la IA, que se está desarrollando de forma masiva.
2. Impulsar una mayor innovación en IA clínica
Los profesionales de la salud deberían alentar a los desarrolladores de IA a generar modelos cuyo análisis de datos pueda interpretarse de forma clínica, sencilla y transparente .
Los responsables de las políticas deben exigir a los desarrolladores de IA que creen modelos transparentes antes de que la tecnología se adopte ampliamente.
3. Colaboración en investigación
Otro aspecto crucial que a menudo se pasa por alto es la limitada diversidad de datos de la UCI disponibles para el público. Una revisión de 2022 reveló que los datos de la UCI disponibles públicamente y utilizados en muchos estudios provenían de solo cuatro conjuntos de datos diferentes (conjuntos de datos), todos ellos de Europa y Estados Unidos.
Por lo tanto, se necesita una colaboración mundial en materia de investigación para compartir los datos de las UCI. Como se mencionó anteriormente, un modelo de datos sesgados solo perpetuará ese sesgo. A modo de ejemplo, los modelos de IA corren el riesgo de reducir drásticamente su rendimiento cuando se utilizan en diferentes hospitales de un país. En este caso, se necesita urgentemente el uso de datos locales de otros países para reducir la gravedad de esos sesgos.
La comunidad médica del país puede adaptarse a la comunidad lingüística computacional, que organiza periódicamente conferencias sobre recursos lingüísticos y evaluación (LREC) cada dos años. Este foro tiene como objetivo publicar datos y resultados de investigaciones de varias regiones del mundo.
Mientras tanto, la comunidad médica mundial necesita celebrar conferencias y crear revistas que se centren en comunicar datos e investigaciones médicas de países menos conocidos en el mundo académico global.
4. Regulación del uso de la IA
Pero no basta con detenerse ahí, el gobierno necesita implementar regulaciones sobre la ética del uso de la IA en el mundo médico. La OMS y la Unión Europea , por ejemplo, han formulado regulaciones para asegurar y evaluar el desempeño, la seguridad y la precisión de los modelos de IA en el sector de la salud, de modo que sean fáciles de usar, libres de sesgos y discriminación.
Para garantizar una atención intensiva sin prejuicios se requiere un esfuerzo integral que involucre a una amplia gama de partes interesadas, incluidos médicos, trabajadores de la salud, académicos, desarrolladores de tecnología y gobiernos.
Para iniciar esta colaboración es necesario el compromiso de todas las partes interesadas. Este paso puede comenzar por comprender, reconocer y evaluar la existencia de sesgos invisibles en los servicios de salud.
Este artículo se publicó originalmente en The Conversation el 26 de enero de 2025.
UCL News