Los modelos de lenguaje proteico pueden identificar qué proteínas podrían ser dianas prometedoras para fármacos o vacunas, convirtiendo vastos datos biológicos en posibles avances. El problema es que nadie sabe realmente cómo toman esas decisiones. Ese problema de caja negra es importante: las farmacéuticas se resisten a apostar millones por una molécula sin comprender por qué parece atractiva.
Un nuevo estudio del MIT, en consonancia con el lanzamiento de modelos biomédicos de código abierto por parte de IBM , apunta a una transición hacia una IA en la que las compañías farmacéuticas puedan confiar plenamente. En un nuevo artículo publicado en las Actas de la Academia Nacional de Ciencias , el equipo del MIT describe cómo un autocodificador disperso puede extraer características biológicas significativas de las representaciones internas de un modelo de lenguaje proteico. Estas características se alinean con funciones del mundo real, como la unión de proteínas o la actividad metabólica. El resultado es una perspectiva de la lógica del modelo que podría ayudar a los investigadores a comprender y verificar sus predicciones.
“Estos modelos funcionan bastante bien para muchas tareas”, declaró Onkar Singh Gujral , estudiante de doctorado del MIT y autor principal del estudio, a IBM Think en una entrevista. “Pero no entendemos realmente qué sucede dentro de la caja negra. Interpretar y explicar esta funcionalidad generaría confianza, especialmente en situaciones como la selección de dianas farmacológicas”.
La interpretabilidad acelera la validación científica
Los modelos de lenguaje proteico utilizan el aprendizaje automático para estudiar las secuencias de aminoácidos de la misma forma que los modelos de lenguaje natural estudian las palabras. Al entrenarse con grandes colecciones de datos proteicos, aprenden la gramática de su estructura y funcionamiento. Esto les permite obtener información clave sobre la evolución, la estructura y las funciones biológicas de las proteínas.
El objetivo del nuevo artículo del MIT no es solo explicar el comportamiento del modelo, sino también acelerar la validación, el proceso de comprobar si una molécula candidata funciona según lo previsto. La interpretabilidad puede ayudar a los científicos a avanzar más rápido al aclarar qué señala realmente un modelo. Michal Rosen-Zvi, director de Salud y Ciencias de la Vida en IBM Research, afirmó que el beneficio es tanto técnico como práctico.
«La interpretabilidad acelera el descubrimiento de fármacos al permitir a los investigadores validar hipótesis basadas en IA con mayor rapidez», declaró a IBM Think en una entrevista. «Garantiza el rigor científico mediante un razonamiento transparente y mecanismos biológicos trazables».
Rosen-Zvi señaló que los sistemas de IA no son inmunes a los errores. Las predicciones pueden verse afectadas por datos erróneos o peculiaridades internas. La transparencia facilita la detección de estos problemas y su rápida corrección. «La interpretabilidad permite ciclos rápidos de verificación, tanto de la lógica del modelo como de la integridad de los datos subyacentes», afirmó.
Existe una contrapartida. Los modelos diseñados para la interpretabilidad suelen ser menos potentes que los opacos, al menos en términos de rendimiento bruto, afirmó Rosen-Zvi. Añadió que los algoritmos más avanzados tienden a ser los menos transparentes, lo que requiere un análisis a posteriori para comprender su comportamiento. Aun así, cree que el esfuerzo adicional merece la pena, especialmente en biología, donde los errores pueden tener consecuencias costosas.
IBM publicó recientemente modelos biomédicos básicos de código abierto, diseñados para brindar a los investigadores una visión más clara de cómo la IA identifica fármacos candidatos prometedores. La compañía apuesta a que la transparencia será clave para una adopción más amplia de la IA en la investigación farmacéutica.
Boletín de la industria
Las últimas tendencias en IA, presentadas por expertos
Obtenga información seleccionada sobre las noticias más importantes e interesantes sobre IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de Privacidad de IBM .
- Correo electrónico empresarial
Suscribir
El método del equipo del MIT funciona tomando una representación comprimida de una proteína y expandiéndola en un espacio amplio y escasamente activado. Esto facilita la identificación de las características biológicas específicas que impulsan la predicción. Algunas de las características identificadas en el estudio corresponden a familias de proteínas y funciones moleculares conocidas, mientras que otras se alinean con categorías biológicas más amplias, como los sistemas sensoriales. Para facilitar la interpretación de estas características, los investigadores utilizaron un modelo de lenguaje para convertir patrones de secuencias complejas en resúmenes en lenguaje sencillo.
Este nivel de visibilidad, según Gujral, permite a los investigadores evaluar no solo si un modelo es correcto, sino también por qué, lo que ayuda a los equipos a mantenerse involucrados en el proceso de toma de decisiones. «También se podrían descartar candidatos ineficaces con ayuda humana si el modelo es interpretable», añadió.
Rosen-Zvi coincidió en que los modelos que muestran su trabajo pueden contribuir a generar confianza. «Una IA fiable facilita una colaboración significativa entre la experiencia humana y la inteligencia artificial», afirmó. «Hace más visibles los sesgos y las limitaciones de los datos y modelos biomédicos».
En ámbitos como el desarrollo de fármacos, donde los datos suelen ser incompletos y complejos, esa visibilidad puede mejorar tanto los flujos de trabajo internos como la comunicación externa. «La transparencia en la procedencia de los datos, la apertura metodológica y la evaluación comparativa inclusiva» son fundamentales, afirmó.
El rigor científico no es la única preocupación. Rosen-Zvi señaló que la interpretabilidad también desempeña un papel social, facilitando a los científicos la comunicación de los resultados de los modelos a colegas, organismos reguladores o financiadores, y generando confianza en las decisiones posteriores.
“Es un desafío tanto técnico como de confianza”, afirmó. “En las ciencias biomédicas, esto se ve aún más matizado por la doble dependencia del campo del modelado matemático y el razonamiento narrativo”.
Avances en biotecnología
Estos avances llegan en un momento en el que las compañías farmacéuticas están incorporando la IA más profundamente en sus procesos farmacéuticos, recurriendo al aprendizaje automático para identificar objetivos y simular el comportamiento de los compuestos.
En los últimos años, empresas como Insilico Medicine han llevado compuestos generados por IA a ensayos clínicos. Sin embargo, a pesar del rápido progreso, hasta la fecha, ningún fármaco diseñado con IA ha llegado al mercado .
Un desafío es la credibilidad. Investigadores, inversores y reguladores suelen dudar en confiar en sistemas de IA cuando no pueden verificar el razonamiento detrás de una predicción, afirmó Gujral. Sugirió que un sistema más interpretable podría ayudar a los equipos de investigación a explicar las decisiones de financiación, evitar callejones sin salida y priorizar mejor los recursos. «Podría ser más fácil justificar el uso de fondos para perseguir a un candidato en particular si se puede explicar claramente por qué el modelo lo considera prometedor», concluyó.
Esta presión por la transparencia trasciende el ámbito académico. Isomorphic Labs de Alphabet recaudó recientemente 600 millones de dólares para respaldar su plataforma de descubrimiento de fármacos con inteligencia artificial. Su objetivo es aprovechar los avances de AlphaFold, que predice las estructuras de las proteínas con una precisión impresionante, pero ofrece poca información sobre su proceso interno. Mientras tanto, una nueva herramienta de código abierto llamada DrugReasoner intenta predecir las probabilidades de aprobación de fármacos, mostrando su razonamiento en cada etapa.
De vuelta en el MIT, Bonnie Berger, autora principal del estudio, comentó que su equipo probó su método en varias capas de ESM, un popular modelo de lenguaje de proteínas, evaluando la interpretabilidad de las características dispersas en comparación con las neuronas originales en el contexto de términos GO, familias de proteínas, nombres de proteínas, etc. En todas las capas, las características dispersas del autocodificador superaron los puntajes de interpretabilidad de las neuronas originales, lo que demuestra la superioridad del método. Varias de las características dispersas interpretables observadas desempeñarían un papel importante en el diseño de fármacos.
“El objetivo no es reemplazar el juicio humano”, dijo. “Es combinarlo con lo que ve el modelo. Eso solo es posible si entendemos cómo piensa el modelo”.
IBM Blog. S. B. Traducido al español