En un ensayo ganador del premio Nine Dots, la neurocientífica Grace Huckins sostiene que, si bien las poderosas herramientas de IA y los vastos conjuntos de datos están impulsando avances prácticos, es posible que no estén profundizando nuestra comprensión del universo.
Grace Huckins ha estado pensando en la tensión entre la ciencia fundamental y la aplicada desde que comenzó a trabajar en un doctorado en neurociencia y filosofía en Stanford en 2018.
“Los problemas prácticos son la dimensión que a menudo hay que enfatizar en las solicitudes de subvención: ¿cómo ayudará tu investigación a combatir enfermedades, a impulsar la tecnología o a mejorar la vida cotidiana de las personas?”, dijo Huckins, quien usa los pronombres «ellos». “Pero los científicos también son personas muy curiosas. Incluso si la ciencia no tuviera beneficios prácticos evidentes, muchos de nosotros seguiríamos sintiendo el impulso de comprender cómo y por qué el mundo funciona como lo hace”.
En un ensayo reciente que recibió el premio internacional Nine Dots Prize , Huckins, profesor del programa obligatorio de primer año de Educación Cívica, Liberal y Global (COLLEGE) de Stanford , argumentó que cantidades sin precedentes de datos y las herramientas de inteligencia artificial cada vez más poderosas para analizarlos están haciendo posibles avances prácticos sin un aumento correspondiente en la comprensión.
“Nunca antes había tenido sentido preguntarse si la ciencia se centra en el desarrollo de nuevas tecnologías e intervenciones o en la comprensión del universo; durante siglos, ambos objetivos han sido el mismo”, escribió Huckins en su propuesta ganadora. “Ahora que el big data y la IA han disociado los dos objetivos de la ciencia, tenemos la responsabilidad de decidir cuál es el más importante”.
El premio Nine Dots, llamado así por un rompecabezas de pensamiento lateral que demuestra cómo las suposiciones invisibles limitan la resolución de problemas, reconoce el pensamiento innovador sobre temas contemporáneos y viene con un premio de $100,000 para apoyar el desarrollo de un libro que será publicado por Cambridge University Press.
Huckins compartió sus pensamientos sobre la ciencia impulsada por la IA y el deseo de la humanidad por el descubrimiento.
¿Cuándo empezó a pensar en esta tensión entre cómo se aplica la IA a la ciencia y los métodos científicos más tradicionales?
He estado pensando en esta tensión desde que comencé mi doctorado. Trabajé en el laboratorio de Russ Poldrack aquí en Stanford, donde me centré en el uso de la IA o el aprendizaje automático en la investigación de neuroimagen. Hoy en día, es muy común usar el aprendizaje automático para intentar predecir algún atributo de un individuo, como la personalidad, la inteligencia o el diagnóstico psiquiátrico, basándose en un escáner cerebral. Y parte de esa investigación tiene beneficios prácticos reales: si se pudiera predecir con precisión el fármaco psiquiátrico ideal para un paciente determinado, eso cambiaría vidas. Pero no vi el beneficio de, por ejemplo, predecir si alguien tiene depresión, ya que es mucho más económico y fácil identificarla con una entrevista diagnóstica. Y esos estudios de predicción de la depresión en realidad no nos dicen mucho sobre cómo funciona la depresión en el cerebro, en parte porque algunos de esos enfoques de aprendizaje automático pueden ser muy difíciles de interpretar. Me pareció que había una tendencia en el campo a valorar la predicción por sí misma, y ese no parecía el mejor enfoque.
“Una gran pregunta que tengo es si la comprensión podría quedar relegada a un segundo plano en la ciencia, porque ya no es un paso clave en el camino hacia muchos beneficios prácticos”.
¿Qué oportunidades ve para que la IA y los datos mejoren nuestra comprensión del mundo?
Hay muchísimas maneras, y eso es algo que me entusiasma explorar en el libro. AlphaFold, la IA de plegamiento de proteínas de Google DeepMind, es un gran ejemplo. AlphaFold puede captar la secuencia de aminoácidos que componen una proteína y predecir con precisión su estructura tridimensional. Esto aporta beneficios prácticos reales. El otro día leí un artículo sobre el uso de AlphaFold para diseñar proteínas pequeñas que puedan ayudar a mejorar el tratamiento del cáncer.
AlphaFold es un sistema enorme y extremadamente complejo, y nadie entiende cómo funciona. Hace predicciones excelentes, pero la fuente de dichas predicciones es un misterio. Sin embargo, estas predicciones en sí mismas pueden ser un recurso valioso para la ciencia. Anteriormente, si se deseaba recopilar datos para probar una hipótesis sobre el plegamiento de proteínas, se necesitaba realizar un trabajo minucioso de biología estructural para determinar cómo las diferentes secuencias de aminoácidos modifican la estructura proteica. Pero ahora no es necesario observar esas proteínas en el mundo real; en su lugar, se puede usar AlphaFold como fuente de datos sobre la estructura proteica. En ese sentido, herramientas como AlphaFold podrían acelerar la comprensión científica.
Pero hoy, esa comprensión es secundaria. Las predicciones y los beneficios prácticos son lo primero, y luego los científicos pueden usar esas predicciones para comprender mejor si así lo desean. Por lo tanto, una gran pregunta que tengo es si la comprensión podría perder prioridad en la ciencia, al dejar de ser un paso clave para obtener muchos beneficios prácticos.
¿Cómo ha influido esta investigación en los debates en tus cursos universitarios?
Si bien este libro trata específicamente sobre IA y ciencia, también aborda de forma más amplia cómo la IA nos obliga a reevaluar y redefinir muchas actividades humanas, desde la escritura hasta las artes visuales y las relaciones. Siento mucha curiosidad por lo que significa ser humano en la era de la IA, y creo que mis alumnos también, sobre todo porque viven esta transformación al mismo tiempo que intentan determinar qué quieren para sí mismos y para su futuro. Esto significa que tienen una visión mucho más profunda de esta cuestión que yo, y he aprendido muchísimo de nuestros debates en clase sobre la IA y cómo la ven como un factor en sus vidas. En su mayoría, mis alumnos no son solo defensores o detractores de la IA. Ven posibles aplicaciones para la IA que yo nunca habría imaginado, y tienen la creatividad y la habilidad para intentar ponerlas en práctica; al mismo tiempo, también les preocupa que la IA cambie su forma de interactuar con la educación y con el mundo. Esa lección –que la IA conlleva potencial y riesgo en igual medida– es algo que estoy trabajando arduamente para reflejar en mi libro.
Stanford Report News. Traducido al español