Un juego de ajedrez requiere que sus jugadores piensen varios movimientos por delante, una habilidad que los programas de computadora han dominado a lo largo de los años. En 1996, una supercomputadora de IBM venció al entonces campeón mundial de ajedrez Garry Kasparov. Más tarde, en 2017, un programa de inteligencia artificial (IA) desarrollado por Google DeepMind, llamado AlphaZero, triunfó sobre los mejores motores de ajedrez computarizados de la época después de entrenarse para jugar el juego en cuestión de horas.
Más recientemente, algunos matemáticos han comenzado a perseguir activamente la cuestión de si los programas de IA también pueden ayudar a resolver algunos de los problemas matemáticos más difíciles del mundo. Pero, mientras que un juego promedio de ajedrez dura entre 30 y 40 movimientos, estos problemas matemáticos a nivel de investigación requieren soluciones que den un millón o más de pasos o movimientos.
En a papel preimpresión, un equipo dirigido por Caltech’s Sergei Gukov, el John D. MacArthur Profesor de Física Teórica y Matemáticas, describe el desarrollo de un nuevo tipo de algoritmo de aprendizaje automático que puede resolver problemas matemáticos que requieren secuencias de pasos extremadamente largas. Utilizaron su nuevo algoritmo para resolver familias de problemas relacionados con un problema matemático general de décadas llamado la conjetura de Andrews–Curtis. En esencia, el algoritmo puede pensar más adelante que incluso los programas avanzados como AlphaZero.
«Nuestro programa tiene como objetivo encontrar largas secuencias de pasos que son raros y difíciles de encontrar», dice el primer autor del estudio Ali Shehper, un erudito postdoctoral en la Universidad de Rutgers que pronto se unirá a Caltech como científico investigador. «Es como tratar de encontrar tu camino a través de un laberinto del tamaño de la Tierra. Estos son caminos muy largos que tienes que probar, y solo hay un camino que funciona.»
El uso de la IA para resolver problemas matemáticos se ha vuelto cada vez más popular. AlphaProof de Google DeepMind se desempeñó a nivel de medallista de plata en la Olimpiada Internacional de Matemáticas 2024, una competencia de matemáticas de nivel secundario. Y el programa o3 de OpenAI recientemente se abrió paso a través de problemas de referencia en matemáticas, ciencias y programación de computadoras.
Los matemáticos liderados por Caltech no se están enfocando en problemas de rutina, sino en los más difíciles en su campo. En el nuevo estudio, utilizaron IA para resolver dos familias de problemas dentro de la conjetura de Andrews–Curtis, un problema de teoría de grupos propuesto por primera vez hace 60 años.
Si bien no resolvieron la conjetura principal en sí, refutaron a las familias de problemas, conocidos como contraejemplos potenciales, que habían permanecido abiertos durante aproximadamente 25 años; también lograron un progreso significativo en otra familia de contraejemplos que ha estado abierta durante 44 años. Los contraejemplos son básicamente casos matemáticos que refutarían una conjetura original. Si los contraejemplos en sí mismos son refutados, entonces la conjetura original aún puede ser cierta.
«Eliminar algunos de los contraejemplos nos da confianza en la validez de la conjetura original y ayuda a construir nuestra intuición sobre el problema principal. Nos da nuevas formas de pensarlo», dice Shehper.
Gukov dice que navegar por estos problemas matemáticos es como «pasar de A a B» a través de rutas complicadas que requieren miles, millones o incluso miles de millones de pasos. Compara los problemas con resolver un cubo de Rubik increíblemente complejo.
«¿Puedes tomar este cubo de Rubik revuelto y complicado y volver a su estado original? Tienes que probar estas secuencias muy largas de movimientos, y no sabrás si estás en el camino correcto hasta el final», dice Gukov, quien también es el director de Caltech Richard N. Merkin Center for Matemáticas Puras y Aplicadas.
El programa de IA del equipo aprendió a crear largas secuencias de movimientos—lo que los investigadores denominaron «súper movimientos»—que son inesperados, o lo que los investigadores llaman valores atípicos. Esto contrasta con la forma en que operan los programas de IA como ChatGPT.
«Si le pides a ChatGPT que escriba una carta, se le ocurrirá algo típico. Es poco probable que se le ocurra algo único y muy original. Es un buen loro», dice Gukov. «Nuestro programa es bueno para encontrar valores atípicos.»
Para entrenar su programa de IA, los investigadores utilizaron un modelo de aprendizaje automático conocido como aprendizaje por refuerzo. Primero, el equipo mostró que la IA era fácil de resolver, y luego progresivamente le dio problemas cada vez más difíciles. «Intenta varios movimientos y es recompensado por resolver los problemas», explica Shehper. «Alentamos al programa a hacer más de lo mismo mientras mantenemos cierto nivel de curiosidad. Al final, desarrolla nuevas estrategias que son mejores de lo que los humanos pueden hacer. Esa es la magia del aprendizaje por refuerzo.»
En la actualidad, los programas de IA generalmente no son muy buenos para predecir eventos raros y periféricos que tienen consecuencias dramáticas, como los accidentes del mercado financiero. El nuevo algoritmo del equipo tampoco puede hacer predicciones como esta, pero puede contener las semillas de lo que se requeriría para hacer predicciones inteligentes de esta naturaleza. «Básicamente, nuestro programa sabe cómo aprender a aprender», dice Gukov. «Está pensando fuera de la caja.»
El nuevo algoritmo del equipo ya ha causado un gran revuelo en la comunidad matemática. «Hicimos muchas mejoras en un área de matemáticas que tenía décadas de antigüedad», dice Gukov. «El progreso había sido relativamente lento, pero ahora es bullicioso y bullicioso.» De hecho, tres nuevos matemáticos se han unido al equipo—Lucas Fagan y Zhenghan Wang de UC Santa Barbara y Yang Qiu de la Universidad de Nankai en Tianjin, China— y el grupo ha publicado otro papel de preimpresión eso informa que resuelve aún más familias de contrafactuales potenciales pertenecientes a la conjetura de Andrews–Curtis.
En lugar de ampliar los modelos de IA, el enfoque del equipo ha sido encontrar nuevos trucos y estrategias inteligentes que no requieren grandes cantidades de potencia informática. «Tratamos de demostrar un buen rendimiento en computadoras de pequeña escala, de fácil acceso a una pequeña colaboración académica, para que cualquiera de nuestros colegas de todo el mundo pueda reproducir fácilmente estos resultados.»
Este proyecto fue posible gracias al apoyo de donantes privados. Las donaciones también ayudaron a establecer un nuevo grupo de matemáticas e IA en Caltech se centró en el desarrollo de sistemas de IA que puedan abordar problemas matemáticos a nivel de investigación.
Otros autores del primer estudio de preimpresión titulado «Lo que dificulta los problemas matemáticos para el aprendizaje por refuerzo: un estudio de caso«son Anibal M. Medina-Mardones de Western University en Canadá, Bart Salomie Lewandowski y Piotr Kucharski de la Universidad de Varsovia en Polonia, y Angus Gruen (PhD ’23) de Polygon Zero. Caltech News. C. W. Traducido al español