Una nueva innovación de los investigadores de Cornell reduce el uso de energía necesaria para alimentar la inteligencia artificial: un paso hacia la reducción de la huella de carbono de los centros de datos y la infraestructura de IA.
A medida que los sistemas de IA se vuelven cada vez más potentes, también consumen más energía, lo que plantea urgentes preguntas sobre la sostenibilidad. El equipo de investigación, de Cornell Tech y Cornell Engineering, aborda este desafío repensando el hardware que impulsa la IA, con el objetivo de hacerlo más rápido, más eficiente y con un consumo energético más bajo.
Los investigadores recibieron un premio al mejor artículo por sus hallazgos, presentados en la Conferencia Internacional sobre Lógica y Aplicaciones Programables en Campo de 2025 , celebrada del 1 al 5 de septiembre en Leiden, Países Bajos.
Su trabajo se centra en un tipo de chip informático llamado Matriz de Puertas Programables en Campo (FPGA). Estos chips son apreciados por su flexibilidad: a diferencia de los chips tradicionales, pueden reprogramarse para diferentes tareas tras su fabricación. Esto los hace especialmente útiles en campos en rápida evolución como la IA, la computación en la nube y la comunicación inalámbrica.
“Las FPGAs están en todas partes: desde tarjetas de red y estaciones base de comunicación hasta ecógrafos, tomografías computarizadas e incluso lavadoras”, afirmó el coautor Mohamed Abdelfattah , profesor adjunto de Cornell Tech. “La IA está llegando a todos estos dispositivos, y esta arquitectura ayuda a que esa transición sea más eficiente”.
Dentro de cada chip FPGA se encuentran unidades de cómputo llamadas bloques lógicos. Estos bloques contienen componentes que pueden gestionar diferentes tipos de computación. Las tablas de búsqueda (LUT) son componentes que pueden realizar una amplia gama de operaciones lógicas según las necesidades del chip. Las cadenas de sumadores son componentes que realizan operaciones aritméticas rápidas, como la suma de números, esenciales para tareas como el reconocimiento de imágenes y el procesamiento del lenguaje natural.
En los diseños de FPGA convencionales, estos componentes están estrechamente vinculados, lo que significa que solo se puede acceder a las cadenas sumadoras a través de las LUT. Esto limita la eficiencia del chip, especialmente para cargas de trabajo de IA que dependen en gran medida de operaciones aritméticas.
El equipo de investigación desarrolló «Double Duty», una nueva arquitectura de chip, para abordar este problema. El diseño permite que las LUT y las cadenas sumadoras funcionen de forma independiente y simultánea dentro del mismo bloque lógico. En otras palabras, el chip ahora puede hacer más con los mismos recursos de procesamiento.
Esta innovación es especialmente impactante para las redes neuronales profundas, modelos de IA que imitan el procesamiento de información del cerebro humano. Estos modelos suelen desplegarse en FPGAs, dispuestos como circuitos fijos para un procesamiento más rápido y eficiente.
“Nos centramos en un modo en el que las FPGAs son realmente eficaces para la aceleración de la IA”, afirmó Abdelfattah, también afiliado a Cornell Engineering. “Con un pequeño cambio arquitectónico, logramos que estas redes neuronales desenrolladas sean mucho más eficientes, aprovechando las ventajas de las FPGAs en lugar de tratarlas como procesadores genéricos”.
En las pruebas, el diseño de Doble Función redujo el espacio necesario para tareas específicas de IA en más de un 20 % y mejoró el rendimiento general en un amplio conjunto de circuitos en casi un 10 %. Esto significa que se pueden usar menos chips para realizar el mismo trabajo, lo que resulta en un menor consumo de energía.
El impacto va más allá de la IA. «Este cambio también beneficia a las industrias tradicionales», afirmó Xilai Dai, estudiante de doctorado en ingeniería eléctrica e informática y uno de los autores principales del artículo. «Ayuda con la verificación de chips, la comunicación inalámbrica y cualquier aplicación que utilice aritmética. Permite integrar programas más grandes en chips más pequeños, lo que mejora la eficiencia en general».
El trabajo comenzó como un proyecto de investigación de pregrado de Dai, quien continuó desarrollando la idea hasta convertirla en un estudio a gran escala durante sus estudios en Cornell. El otro coautor principal del artículo, Junius Pun, exinvestigador en prácticas en Cornell Tech y recién graduado de la Universidad Tecnológica de Nanyang, también desempeñó un papel clave en el trabajo de arquitectura y modelado.
El proyecto también contó con la participación de investigadores de la Universidad de Toronto y la Universidad de Waterloo, así como de ingenieros de Altera (anteriormente parte de Intel). Intel Corporation, la Fundación Nacional de Ciencias y el Programa de Becas CN Yang de la Universidad Tecnológica de Nanyang apoyaron la investigación.
“Fue una excelente colaboración entre socios académicos y la industria, con muchos elementos clave”, afirmó Abdelfattah. “Es un paso hacia el uso de las FPGAs aprovechando sus ventajas, convirtiéndolas en dispositivos informáticos verdaderamente eficientes”.
Universidad Cornell. G. S. Traducido al español