Nuevo tipo de “modelo de espacio de estado” aprovecha los principios de los osciladores armónicos.
Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT han desarrollado un nuevo modelo de inteligencia artificial inspirado en las oscilaciones neuronales en el cerebro, con el objetivo de avanzar significativamente en la forma en que los algoritmos de aprendizaje automático manejan largas secuencias de datos.
La IA a menudo lucha con el análisis de información compleja que se desarrolla durante largos períodos de tiempo, como tendencias climáticas, señales biológicas o datos financieros. Un nuevo tipo de modelo de IA, llamado «modelos de espacio de estado», ha sido diseñado específicamente para comprender estos patrones secuenciales de manera más efectiva. Sin embargo, los modelos de espacio de estado existentes a menudo enfrentan desafíos — pueden volverse inestables o requieren una cantidad significativa de recursos computacionales al procesar secuencias de datos largas.
Para abordar estos problemas, los investigadores de CSAIL T. Konstantin Rusch y Daniela Rus han desarrollado lo que llaman “modelos oscilatorios lineales de espacio de estado (LINOSS), que aprovechan los principios de los osciladores armónicos forzados ”, un concepto profundamente arraigado en la física y observado en redes neuronales biológicas. Este enfoque proporciona predicciones estables, expresivas y computacionalmente eficientes sin condiciones excesivamente restrictivas en los parámetros del modelo.
«Nuestro objetivo era capturar la estabilidad y la eficiencia observadas en los sistemas neuronales biológicos y traducir estos principios en un marco de aprendizaje automático», explica Rusch. «Con LINOSS, ahora podemos aprender de manera confiable interacciones de largo alcance, incluso en secuencias que abarcan cientos de miles de puntos de datos o más.»
El modelo LINOSS es único para garantizar una predicción estable al requerir opciones de diseño mucho menos restrictivas que los métodos anteriores. Además, los investigadores demostraron rigurosamente la capacidad de aproximación universal de los modelos, lo que significa que puede aproximarse a cualquier función causal continua que relacione las secuencias de entrada y salida.
Las pruebas empíricas demostraron que LINOSS superó constantemente a los modelos existentes de última generación en varias tareas exigentes de clasificación y pronóstico de secuencias. En particular, LinosS superó al modelo de Mamba ampliamente utilizado casi dos veces en tareas que involucran secuencias de longitud extrema.
Reconocida por su importancia, la investigación fue seleccionada para una presentación oral en ICLR 2025 —, un honor otorgado solo al 1 por ciento superior de las presentaciones. Los investigadores del MIT anticipan que el modelo LINOSS podría afectar significativamente cualquier campo que se beneficie de una predicción y clasificación precisa y eficiente de largo horizonte, incluidos análisis de atención médica, ciencia climática, conducción autónoma y pronósticos financieros.
«Este trabajo ejemplifica cómo el rigor matemático puede conducir a avances en el rendimiento y amplias aplicaciones», dice Rus. «Con LINOSS, weir está proporcionando a la comunidad científica una poderosa herramienta para comprender y predecir sistemas complejos, cerrando la brecha entre la inspiración biológica y la innovación computacional.»
El equipo imagina que la aparición de un nuevo paradigma como LINOSS será de interés para los profesionales del aprendizaje automático. Mirando hacia el futuro, los investigadores planean aplicar su modelo a una gama aún más amplia de diferentes modalidades de datos. Además, sugieren que LINOSS podría proporcionar información valiosa sobre la neurociencia, lo que podría profundizar nuestra comprensión del cerebro mismo.
Su trabajo fue apoyado por la Swiss National Science Foundation, el programa Schmidt AI2050 y los Estados Unidos. Acelerador de Inteligencia Artificial del Departamento de la Fuerza Aérea.