El Portal de las Tecnologías para la Innovación

Viendo el tablero completo: Cómo Caltech usa la IA para impulsar el descubrimiento científico

Fuente:

Hace unos cinco años, el matemático Sergei Gukov comenzó a aprender de forma autodidacta a construir las redes neuronales que constituyen la base de la inteligencia artificial, simplemente para ver si podrían ser útiles en el ámbito de las matemáticas puras. Ahora admite que era escéptico respecto a si las preguntas extremadamente complejas que plantean las matemáticas puras estarían al alcance de la capacidad de la IA para procesar información.

Hoy, dice, ya no es un escéptico, gracias al tiempo que ha pasado aprendiendo cómo construir esas redes neuronales, en lo que creía que era un esfuerzo por demostrar que eran irrelevantes para el tipo de trabajo en el que estaba involucrado. «Cuando pensamos en personas que trabajan en matemáticas puras, generalmente pensamos en alguien sentado en el ático y demostrando teoremas que son tan esotéricos que ningún otro humano puede entenderlos, y mucho menos las máquinas», dice Gukov, profesor John D. MacArthur de Física Teórica y Matemáticas de Caltech.

En cambio, se demostró a sí mismo que lo contrario es cierto. Para entender por qué, Gukov afirma que es importante reconocer que resolver problemas matemáticos complejos puede considerarse una especie de juego. Estos problemas implican afirmaciones que los matemáticos creen que deberían ser verdaderas, y su reto es demostrar que lo son. En otras palabras, todos estos problemas son esencialmente una búsqueda del camino de A a B. «Conocemos la hipótesis, conocemos el objetivo, pero lo que falta es conectarlos», afirma.

Lo que hace que estos problemas sean tan difíciles es el número de pasos de A a B. Mientras que una partida promedio de ajedrez dura alrededor de 30 a 40 movimientos, estos problemas requieren soluciones que toman un millón o más de pasos o movimientos. Después de estudiar redes neuronales, Gukov se dio cuenta de que podía construir un algoritmo de IA que aprende a jugar mejor el juego, o a resolver un problema específico, mientras compite contra sí mismo. El programa comienza con el conocimiento de sus condiciones existentes, un conjunto de reglas sobre qué movimientos puede hacer y una definición de lo que significa ganar. Luego utiliza una técnica de aprendizaje automático llamada aprendizaje de refuerzo, similar a la forma en que una persona podría entrenar a un perro para que se siente, en la que la computadora intenta un movimiento y obtiene retroalimentación sobre si está más cerca de su objetivo.

Gukov y sus colegas aplicaron recientemente este enfoque a un problema de décadas de antigüedad conocido como la conjetura de Andrews-Curtis. No llegaron a resolverlo, pero lograron refutar dos conjuntos de posibles contraejemplos que, de haber sido ciertos, habrían refutado la conjetura de Andrews-Curtis. Aunque muchos de estos problemas matemáticos parecen insolubles ahora, Gukov afirma que en 10 años encontrar esas rutas de A a B podría parecer tan simple como que una computadora gane una partida de ajedrez, una hazaña que antes se consideraba casi imposible. «No sé cuán probable o improbable sea, pero definitivamente existe la posibilidad de que la IA pueda dominar ese tipo de problema», afirma. «Desarrolla nuevas estrategias que superan a las que podemos implementar los humanos».

En todo el Instituto, los investigadores están aprendiendo que la IA puede ayudarles a pensar en grande y a lograr más. Confían en las diversas funciones que la tecnología puede desempeñar en la investigación científica, ya sea cristalizando montañas de datos en nuevas y útiles perspectivas, descubriendo patrones en datos demasiado sutiles para que los humanos los detecten, o utilizando el poder de las redes neuronales o el aprendizaje automático para optimizar la experimentación y generar nuevos conocimientos, desarrollar nuevas terapias o comprender el mundo y sus complejos sistemas de nuevas maneras.

Anima Anandkumar, profesora Bren de Informática y Ciencias Matemáticas de Caltech, afirma que Caltech ha asumido un papel fundamental en la creación e implementación de nuevos usos para la IA. «Llevo en Caltech desde 2017 y, desde entonces, he colaborado muchísimo, incluso con otros profesores que trabajan en IA, así como en colaboraciones interdisciplinarias en todo el campus», afirma.

El pequeño tamaño de Caltech y su mentalidad abierta han hecho esto posible mucho más que en otras universidades más grandes. Su impacto se puede ver directamente en el trabajo realizado desde entonces. El Instituto cuenta con la infraestructura necesaria para ayudar a los laboratorios en esta transición. Anandkumar, junto con Yisong Yue, profesor de informática y ciencias matemáticas, dirige AI4Science, una iniciativa lanzada en 2018 que ayuda a los científicos del Instituto a descubrir qué herramientas y recursos de IA podrían ayudarles a avanzar en su trabajo. El programa es un esfuerzo de colaboración con la Universidad de Chicago y cuenta con el apoyo de la Fundación Margot y Tom Pritzker. Siete años después, Anandkumar y Yue han colaborado con investigadores principales de una amplia variedad de disciplinas en una docena de proyectos en los que la IA ha contribuido a avances significativos. «Fundamentalmente, la IA ya está transformando todo el método científico», afirma Anandkumar.

Como parte de AI4Science, Yue imparte una clase que proporciona a los estudiantes de doctorado una comprensión básica del funcionamiento de la IA y de los tipos de herramientas que pueden incorporar a su investigación. Un punto que enfatiza es la necesidad de partir de datos de alta calidad. «Los datos son el combustible de la IA», afirma Yue. «La IA convierte esos datos en un modelo del que se puede extraer conocimiento». Si los investigadores carecen de datos fiables, les ayuda a encontrarlos, ya sea extrayéndolos de la literatura científica, utilizando una computadora para generar datos simulados o aprovechando de forma más eficaz las mediciones experimentales recopiladas.

IA para modelar el mundo físico

Los incendios forestales que arrasaron el área de Los Ángeles en enero, provocados por vientos extremos, reforzaron la importancia de contar con pronósticos meteorológicos más oportunos. Anandkumar y sus colegas trabajan en tecnologías de inteligencia artificial para crear dichos pronósticos y, potencialmente, salvar vidas en futuros desastres naturales.

Los modelos de pronóstico meteorológico existentes se basan en complejas ecuaciones matemáticas que describen los procesos físicos que rigen el comportamiento de la atmósfera y los océanos terrestres. Se nutren de observaciones de las condiciones actuales, como la temperatura y la humedad, y se ejecutan en enormes supercomputadoras que cuestan cientos de millones de dólares. Anandkumar ejecuta simulaciones basadas en las mismas observaciones, pero omite los cálculos y, en su lugar, entrena su red neuronal con pronósticos meteorológicos históricos. La IA busca patrones en el desarrollo de esos pronósticos antiguos y los aplica a las nuevas mediciones meteorológicas para realizar su predicción. La IA de Anandkumar puede ejecutarse en una sola unidad de procesamiento gráfico, como las de un PC de juegos doméstico, pero sus resultados son tan precisos como los generados por una supercomputadora.

El sistema de Anandkumar utiliza 50.000 muestras de datos meteorológicos históricos recopilados a intervalos de seis horas durante las últimas cuatro décadas. Para una red neuronal, esto no supone una gran cantidad de datos, por lo que para extraerles más valor, Anandkumar utiliza operadores neuronales, herramientas desarrolladas por su laboratorio. Basándose en reglas sobre procesos físicos, como el flujo de fluidos y la conservación de la masa, los operadores neuronales toman puntos de datos discretos y crean funciones matemáticas continuas. Esto permite a los investigadores examinar factores de un sistema, como su dinámica de fluidos, a diferentes escalas para ofrecer una visión más amplia de lo que ocurre que la que se obtendría con puntos de datos discretos.

Para eventos meteorológicos extremos, el sistema puede realizar predicciones precisas con días de anticipación a las predicciones estándar. Por ejemplo, cuando el huracán Lee se gestaba en el Atlántico en septiembre de 2023, Anandkumar utilizó su modelo de prueba para crear un pronóstico, con 10 días de anticipación, de cuándo la tormenta tocaría tierra en Nueva Escocia. Mientras tanto, los modelos estándar europeos y estadounidenses generaban gráficos que lo proyectaban hacia el mar.

Es importante no solo contar con predicciones tempranas y precisas para estas condiciones climáticas severas y peligrosas, sino también comprender la incertidumbre de dichas predicciones. Las autoridades pueden decidir qué medidas tomar según el nivel de certeza; podrían reaccionar de manera diferente, por ejemplo, a una predicción de la llegada de un huracán con un 90 % de confianza que a una con un 60 %. Gracias a la IA, el equipo de Anandkumar puede generar predicciones de forma rápida y económica, y crear miles o incluso millones de simulaciones, cada una con condiciones ligeramente diferentes, mientras que los pronósticos tradicionales en supercomputadoras solo producen unas pocas docenas. Con estas grandes cifras, Anandkumar puede promediar los pronósticos para ver qué resultado se presenta con mayor frecuencia, lo que proporciona pronósticos calibrados necesarios para la intervención temprana en situaciones extremas. Espera que la IA pueda hacer lo mismo con otras condiciones climáticas, como los vientos que provocaron los incendios de Los Ángeles. «Si las predicciones se hubieran hecho incluso antes, con niveles de confianza comunicados al público, tal vez la gente podría haber empezado a protegerse contra incendios antes», afirma Anandkumar.

El mismo enfoque puede utilizarse para modelar otros sistemas turbulentos, como el flujo de plasma dentro de un reactor de fusión nuclear, lo que permite predecir en tiempo real si el flujo podría dañar el reactor o continuar hacia la fusión. Esto podría brindar a los científicos la capacidad de realizar ajustes sobre la marcha para lograr una ignición exitosa. En otros casos, podría permitir adaptaciones rápidas a la turbulencia del aire, lo que permitiría a los bomberos usar un dron para monitorear e incluso combatir un incendio en condiciones en las que los pilotos humanos estarían en tierra.

Mientras Anandkumar se centra en los pronósticos meteorológicos que abarcan días, Tapio Schneider, profesor de Ciencias Ambientales e Ingeniería Theodore Y. Wu de Caltech, utiliza la IA para abordar la modelización climática, que abarca siglos e incluye escenarios que no existen en los datos históricos. Los modelos climáticos actuales no capturan con precisión la forma en que la turbulencia oceánica distribuye el calor ni los efectos de la turbulencia dentro de las nubes, factores que afectan al sistema climático. De hecho, las nubes representan más de la mitad de la incertidumbre en los modelos climáticos existentes, afirma Schneider, porque no existe tecnología de observación que pueda medir directamente lo que sucede dentro de las nubes, como la forma en que se mezcla el aire circundante. Esto significa que no hay suficientes datos con los que entrenar un modelo de IA directamente.

Para abordar la falta de datos, los investigadores están desarrollando modelos individuales de estos procesos a pequeña escala que pueden añadir a los modelos existentes para crear una visión global. Schneider y su equipo comprenden la física de estos procesos y pueden utilizar los datos disponibles (sobre temperatura, humedad, nubosidad, etc.) para crear simulaciones de estos procesos internos. Utilizan estas simulaciones para preentrenar un modelo híbrido de física e inteligencia artificial y, posteriormente, lo alimentan con datos observacionales reales recopilados por satélites, sensores terrestres y boyas oceánicas para perfeccionar los modelos preentrenados y hacerlos más precisos.

“Si se utilizan únicamente las observaciones de la Tierra, no hay suficiente información en ellas para comprender directamente los procesos turbulentos”, afirma Schneider. “Pero si se cuenta con un buen modelo preentrenado, el ajuste con observaciones de la Tierra parece funcionar”.

Zhaoyi Shen, investigador principal del grupo de Schneider, ha creado una biblioteca de unas 500 simulaciones de nubes para diferentes climas del mundo, junto con diversas versiones de modelos climáticos basados en diferentes supuestos. El laboratorio colabora con Google para ampliar la base de datos a miles de simulaciones para su posible uso por parte de otros modeladores climáticos. Mientras tanto, Andrew Charbonneau, estudiante de posgrado del grupo de Schneider, ha desarrollado un modelo que utiliza únicamente inteligencia artificial para predecir el espesor de la nieve basándose en parámetros ambientales como la humedad, lo que refina aún más los modelos climáticos más amplios.

El sismólogo Zachary Ross (izquierda) trabaja con el informático Yisong Yue para desarrollar visualizaciones de IA de la actividad sísmica subterránea. Crédito: Lance Hayashida

La escasez de datos no es un problema para sismólogos como Zachary Ross, profesor de geofísica, cuyos modelos sísmicos pueden aprovechar datos de décadas atrás, así como una cantidad tan grande de datos nuevos que los investigadores no pueden analizarlos todos por sí solos. «Tenemos cientos y cientos de sensores en toda California que envían datos cada segundo», afirma Ross. «Sería totalmente imposible para los humanos realizar este tipo de trabajo completamente a mano».

Ross y sus colegas utilizan esa riqueza de datos para generar modelos informáticos basados en IA de lo que ocurre bajo tierra. Incluso pueden visualizar una red de fallas basándose en lecturas de cómo se propagan las ondas sísmicas a través del suelo, una técnica que los investigadores utilizaron para descubrir, en lugar de vertical. La orientación de las fallas afecta el patrón de vibración que pueden producir las ondas sísmicas. Este conocimiento, a su vez, puede aplicarse a los códigos de construcción, de modo que las viviendas puedan cumplir con los requisitos específicos que conducen a una costosa sobreconstrucción. Esos mismos algoritmos pueden aplicarse a otras tecnologías que se basan en la mecánica de ondas, como la radio, la óptica y la imagenología del interior del cuerpo humano. «Hoy en día, casi cada paso de lo que hace mi grupo de investigación tiene componentes de IA en algún nivel», afirma Ross. «La IA ha cambiado casi todos los aspectos de nuestro trabajo».

Los estudios sísmicos de Ross también nutren la investigación de Yue, centrada en comprender y mejorar la propia IA. Al colaborar con Ross en la creación de modelos que visualizan la actividad sísmica subterránea, Yue puede observar si el sistema de IA cumple con las expectativas y cuáles son sus deficiencias. Yue también ha colaborado con Katie Bouman, profesora asociada de informática y ciencias matemáticas, ingeniería eléctrica y astronomía, para crear un sistema de IA que convirtió las observaciones astronómicas en la primera imagen del agujero negro supermasivo en el centro de la Vía Láctea. «Poder trabajar en estos proyectos te da una idea de los desafíos fundamentales de la IA», afirma Yue.

IA a nivel molecular

La ingeniera química y premio Nobel Frances Arnold (abajo) utiliza IA generativa para crear nuevas secuencias genéticas de enzimas que ella y su equipo diseñan en el laboratorio. Crédito: Lance Hayashida

Frances Arnold, profesora Linus Pauling de Ingeniería Química, Bioingeniería y Bioquímica y directora del Centro de Bioingeniería Donna y Benjamin M. Rosen, ahora utiliza redes neuronales para ayudar en su trabajo sobre la evolución dirigida, un proceso de creación de enzimas que le valió el Premio Nobel de Química en 2018.

Para generar nuevas enzimas (proteínas capaces de sintetizar nuevas sustancias químicas o descomponer otras), Arnold y otros ingenieros de proteínas seleccionan secuencias genéticas que codifican enzimas. Mediante la mutación y recombinación del gen que codifica la enzima, seguida de la selección artificial para obtener los rasgos deseados, Arnold puede usar su método para «criar» biomoléculas. Al igual que en la evolución natural, solo las versiones más aptas sobreviven para reproducirse, pero son Arnold y su equipo, no el entorno, quienes determinan esa aptitud. Si la enzima se acerca más a su objetivo (como la capacidad de descomponer plástico) que su antecesor, Arnold continúa introduciendo mutaciones y buscando la descendencia más exitosa en cada generación.

Hace más de doce años, con la ayuda del entonces informático de Caltech, Andreas Krause, Arnold comenzó a usar herramientas de aprendizaje automático (enfoques estadísticos que no necesariamente involucran redes neuronales) para determinar qué secuencias genéticas tenían más probabilidades de producir la siguiente generación de enzimas «aptas». Actualmente, en colaboración con Anandkumar, Arnold recurre a la IA generativa para generar nuevas secuencias. Resulta que los mismos modelos de lenguaje grandes (LLM) basados en redes neuronales que habilitan ChatGPT también pueden funcionar con otros materiales además del texto. Estos modelos se entrenaron inicialmente alimentándolos con miles de millones de palabras (o fracciones de palabras, conocidas como tokens) y luego se les asignó la tarea de determinar las relaciones entre ellas. Los LLM usan lo aprendido para predecir la palabra con mayor probabilidad de seguir a la anterior. Este proceso también puede funcionar con código informático o, en este caso, ADN. «Los modelos de lenguaje grandes son muy fáciles de usar dadas todas las secuencias, la biblioteca de la evolución que se recopila en las bases de datos de ADN», afirma Arnold.

Con esta herramienta, Arnold afirma imaginar el día en que, con solo pulsar un botón, una computadora pueda generar una secuencia genética para crear una enzima que realice una tarea específica sin pasar por el proceso evolutivo iterativo, y que dicha enzima pueda ser sintetizada rápidamente por un robot. «Me han sorprendido enormemente los conocimientos que los algoritmos de aprendizaje automático obtienen de los datos mutacionales, conocimientos que no me resultaron obvios con un cerebro humano», afirma Arnold.

Arnold también se ha dado cuenta de que optimizar estas tecnologías requiere cambios en las metodologías de laboratorio y de recopilación de datos. «No se pueden obtener los datos adecuados para entrenar modelos sin mejorar el método experimental», afirma. Para ello, su laboratorio ha desarrollado un método para secuenciar los genes que codifican las proteínas que estudian, asociando las secuencias a las funciones de dichas proteínas. Estos datos se etiquetan con un tipo de código de barras optimizado para su uso informático. «Ahora estamos cambiando la forma en que realizamos los experimentos para aprovechar el potencial de estos métodos basados en datos».

Enfoques similares podrían ser relevantes para la industria farmacéutica, donde descubrir cómo fabricar, por ejemplo, un medicamento específico contra el cáncer es uno de los mayores gastos que incrementan los costos. Hosea Nelson, profesor de química en Caltech e investigador principal del Centro de Síntesis Asistida por Computadora (C-CAS) de la Fundación Nacional de Ciencias, busca ir más allá de las proteínas para descubrir cómo sintetizar cualquier sustancia química imaginable, una hazaña que podría reducir drásticamente la cantidad de dinero necesaria para encontrar un medicamento eficaz y seguro.

Para fabricar nuevos medicamentos o cualquier otro producto químico, los químicos necesitan descubrir las reacciones correctas a utilizar.

En esencia, desarrollar cualquier reacción química es como crear una receta desde cero. Pero con todas las variables involucradas (diferentes ingredientes (y cantidades de cada uno), la secuencia en la que agregarlos, cuánto tiempo cocinarlos y a qué temperatura), podrían existir millones de recetas posibles, y los químicos humanos podrían tardar cientos de años en explorarlas. En cambio, los investigadores principales de C-CAS como Nelson y Sarah Reisman, Profesora Bren de Química y Cátedra de Liderazgo Norman Davidson de la División de Química e Ingeniería Química, pasan una o dos semanas en el laboratorio cocinando físicamente un número más manejable de posibles reacciones para crear una molécula con atributos específicos. Luego miden varias características en esas reacciones, como qué cantidad de la molécula produce cada una. Alimentan aproximadamente el 70 por ciento de las reacciones en una red neuronal, que usa los datos para determinar el patrón de características con más probabilidades de producir el resultado deseado. «Lo que nos interesa es usar IA para descubrir relaciones que nos permitan comprender mejor una reacción química», dice Nelson.

La investigación del cáncer también puede beneficiarse del apoyo de la IA. Por ejemplo, varios esfuerzos en este campo se centran en inducir al sistema inmunitario del cuerpo a atacar los tumores. Esto funciona, afirma Matt Thomson, profesor de biología computacional, cuando las células T —un componente de la respuesta inmunitaria— logran infiltrarse en los tumores. Sin embargo, algunos tumores logran evadir las células T. Thomson busca maneras, quizás mediante fármacos o edición genética, de reprogramar los tumores para que el sistema inmunitario pueda atacar exclusivamente al cáncer.

En este trabajo, Thomson emplea una técnica llamada seqFISH (Hibridación In Situ con Fluorescencia Secuencial), desarrollada en el laboratorio de Long Cai, profesor de biología e ingeniería biológica de Caltech. SeqFISH utiliza sondas fluorescentes que se adhieren e iluminan el ADN, el ARNm y las proteínas de las células, proporcionando una lectura detallada de su composición. Una vez que conoce con exactitud el contenido de las células, Thomson solicita a una red neuronal que prediga cómo la alteración del ADN o las proteínas afectaría el comportamiento de las células o de los tejidos que las componen.

Con ese fin, él y sus colegas presentaron recientemente Morpheus, una red neuronal de aprendizaje profundo que predice cómo alterar un tumor para hacerlo más susceptible a la inmunoterapia. Una estrategia identificada por Morpheus consiste en alterar la cantidad de proteínas específicas expresadas por tres genes diferentes, aumentando la expresión en dos y reduciéndola en uno. La IA predijo que esto permitiría a las células T penetrar en tumores que antes no podían. Morpheus ha sugerido alteraciones en las células tumorales tanto en el melanoma como en el cáncer colorrectal, y el grupo de Thomson busca financiación para colaborar con un socio clínico y aplicar los resultados de la computadora en la investigación clínica. Un enfoque similar podría conducir también a tratamientos para otras enfermedades. «El verdadero avance radica en que el sistema de IA puede analizar una gran cantidad de datos de muestras tumorales humanas y luego integrar esa información para realizar predicciones coherentes y muy específicas sobre las terapias», afirma Thomson. Sería bastante difícil para los humanos descifrar lo que se lograría reprogramando solo uno de cada uno de los 30.000 genes de una célula. Buscar todas las combinaciones de tres genes implicaría analizar 27 billones de posibilidades. «¿Cómo podría un humano analizar esos datos para comprender qué está sucediendo y diseñar terapias?», pregunta. «Es imposible, pero podemos desarrollar sistemas de IA que puedan hacerlo en aproximadamente un día».

IA para comprender el cerebro

Colin Camerer, profesor Robert Kirby de Economía del Comportamiento y Cátedra de Liderazgo, y director del Centro Tianqiao y Chrissy Chen de Neurociencia Social y de la Decisión de Caltech, utiliza la IA para obtener información sobre cómo las personas toman decisiones y forman o abandonan hábitos. Tradicionalmente, la economía ha abordado estas cuestiones observando lo que compran las personas o solicitándoles que respondan a cuestionarios. Camerer mejora estas técnicas añadiendo medidas más objetivas, como el seguimiento ocular para ver a qué prestan realmente atención las personas, y la resonancia magnética funcional (fMRI) para ver qué partes del cerebro se activan cuando las personas se concentran en una elección concreta. Este último esfuerzo recibió un impulso en 2003 con la creación del Centro de Imágenes Cerebrales de Caltech. «La idea ha sido tomar un tema central que los economistas han estudiado de cierta manera e intentar estudiarlo con una perspectiva nueva y con mejores herramientas», afirma Camerer.

Al mapear lo que sucede en redes neuronales literales mientras las personas participan en los juegos económicos estándar que se utilizan para descubrir cómo los sujetos toman decisiones, los investigadores pueden analizar mediciones objetivas en lugar de basarse en informes subjetivos. Sin embargo, puede ser difícil distinguir las hipótesis válidas de las falsas sin la ayuda de la IA. «El aprendizaje automático es realmente eficaz al tomar muchas posibles variables predictoras y seleccionar las que realmente son sólidas para realizar buenas predicciones», afirma Camerer.

Recientemente, Camerer y su equipo crearon un algoritmo de aprendizaje automático para determinar cuánto tiempo le tomaría a alguien desarrollar el hábito de ir al gimnasio o a un profesional de la salud adquirir el hábito de lavarse las manos. Aunque no encontraron una cifra mágica, descubrieron que la asistencia al gimnasio tardaba unos seis meses en convertirse en un hábito, mientras que lavarse las manos solo tardaba unas seis semanas. El algoritmo determinó qué variables eran importantes: la mayoría de los meses no tenían valor predictivo para la asistencia al gimnasio, aunque hubo una disminución en diciembre y un aumento en enero. Pero el día de la semana sí lo tenía, siendo el lunes y el martes los días más probables. El mejor predictor fue cuántos días habían pasado desde la última vez que alguien había ido al gimnasio.

¿Qué viene después?

Si bien los científicos de Caltech reconocen la promesa de la IA de transformar su forma de investigar y las preguntas que pueden responder, advierten al público que no asuma que simplemente están poniendo sus laboratorios a disposición de una computadora. Para aprovechar al máximo la promesa de la IA, afirma Nelson, se requieren investigadores y estudiantes dispuestos y capaces de explorar qué funciona y, aún más importante, qué no. «Lo que hacemos implica muchas habilidades técnicas y de resolución de problemas», afirma. «Es un proceso muy físico».

Arnold añade que una de las principales ventajas de la IA es que permite a los investigadores la libertad de explorar e imaginar. Posteriormente, proporciona apoyo para completar los detalles basados en datos. «Es una nueva herramienta que facilita gran parte de nuestro trabajo», afirma Arnold, «y espero que en el futuro facilite enormemente el diseño de estos nuevos catalizadores que la evolución no ha considerado, pero que nos serían útiles».

Caltech News. N. S. Traducido al español

Artículos relacionados

Huawei

Huawei presenta su visión de sinergia submarino-terrestre y orquestación óptica-inteligente

Huawei presentó su visión de sinergia submarino-terrestre y orquestación óptica-inteligente. En su debut en Submarine Networks World 2025, el principal evento de comunicaciones submarinas en Singapur, la compañía presentó una solución innovadora y productos estrella diseñados para facilitar la integración y la sinergia eficiente entre las redes submarinas y terrestres.

Continuar leyendo...
Nintendo

¡Despega con Mario en dos aventuras que desafían la gravedad!

¿Listo para explorar los confines del espacio? Super Mario Galaxy™ y Super Mario Galaxy 2 son dos aventuras icónicas de Mario, conocidas por sus plataformas desenfrenadas, sorpresas cósmicas y una banda sonora orquestada y envolvente. (Ah, y un dato curioso: ¡Super Mario Galaxy también fue la primera aparición de Rosalina y los Lumas!)

Continuar leyendo...
Scroll al inicio