
¿Puede la IA hambrienta de energía ayudar a reducir nuestro uso de energía?
ChatGPT necesita diez veces más electricidad para responder a un mensaje que para que Google realice una búsqueda estándar. Aún así, los investigadores están luchando para comprender las implicaciones energéticas de la inteligencia artificial generativa tanto ahora como en el futuro. Pocas personas se dan cuenta de que la huella de carbono de la tecnología digital está a la par con la de la industria aeroespacial, representando entre el 2% y el 4% de las emisiones globales de carbono. Y esta huella de carbono digital se está expandiendo a un ritmo rápido. Cuando se trata del uso de energía, los aproximadamente 11,000 centros de datos en operación hoy consumen tanta energía como lo hizo todo el país de Francia en 2022, o alrededor de 460 TWh por año. ¿La adopción generalizada de IA generativa hará que esas cifras se disparen? La nueva tecnología afectará claramente la cantidad de energía que se consume en todo el mundo, pero exactamente cómo es difícil de cuantificar. “Necesitamos saber el costo total de los sistemas de IA generativa para poder usarlos de la manera más eficiente posible,” dice Manuel Cubero-Castan, gerente de proyecto en TI sostenible en EPFL. Él cree que debemos considerar todo el ciclo de vida de la tecnología de IA generativa, desde la extracción de minerales y el ensamblaje de componentes – actividades cuyo impacto concierne no solo a la energía – hasta la eliminación de las toneladas de desechos electrónicos que se generan, que a menudo se vierten ilegalmente. Desde esta perspectiva, las ramificaciones ambientales de la IA generativa van mucho más allá del consumo de energía y agua de los centros de datos. El costo de la capacitación Por ahora, la mayoría de los datos disponibles sobre el uso de energía de la tecnología digital se relacionan solo con los centros de datos. Según la Agencia Internacional de Energía (AIE), estos centros (excluyendo las redes de datos y la minería de criptomonedas) consumieron entre 240 TWh y 340 TWh de energía en 2022, o del 1% al 1.3% del total global. Sin embargo, a pesar de que el número de centros está creciendo en un 4% por año, su uso general de energía no cambió mucho entre 2010 y 2020, gracias a la energíamejoras de eficiencia. Con la IA generativa establecida para ser adoptada a gran escala, eso ciertamente cambiará. La tecnología de IA generativa se basa en modelos de lenguaje grande (LLM) que utilizan la energía de dos maneras. Primero, mientras están siendo entrenados –, un paso que implica ejecutar terabytes de datos a través de algoritmos para que aprendan a predecir palabras y oraciones en un contexto dado. Hasta hace poco, este era el paso más intensivo en energía. En segundo lugar, mientras procesan datos en respuesta a un mensaje. Ahora que los LLM se están implementando a gran escala, este es el paso que requiere la mayor cantidad de energía. Datos recientes de Meta y Google sugieren que este paso ahora representa del 60% al 70% de la potencia utilizada por los sistemas de IA generativa, frente al 30% al 40% para la capacitación. Consulta ChatGPT vs búsqueda convencional de Google Una consulta ChatGPT consume alrededor de 3 Wh de potencia, mientras que una búsqueda convencional en Google utiliza 0.3 Wh, según la AIE. Si todas las aproximadamente nueve mil millones de búsquedas de Google realizadas diariamente se cambiaran a ChatGPT, eso aumentaría el requisito de potencia total en 10 TWh por año. Goldman Sachs Research (GSR) estima que la cantidad de electricidad utilizada por los centros de datos aumentará en un 160% en los próximos cinco años, y que representará del 3% al 4% del uso mundial de electricidad. Además, sus emisiones de carbono probablemente se duplicarán entre 2022 y 2030. Según las cifras de la AIE, la demanda total de energía en Europa disminuyó durante tres años seguidos, pero aumentó en 2024 y debería volver a los niveles de 2021 – unos 2,560 TWh por año – para 2026. Casi un tercio de este aumento se debe a los centros de datos.GSR estima que la demanda de energía relacionada con la IA en los centros de datos crecerá en aproximadamente 200 TWh por año entre 2023 y 2030. Para 2028, la IA debería representar casi el 19% del consumo de energía de data centers’. Si comenzamos a utilizar la tecnología de IA generativa a gran escala, con LLM cada vez más grandes, las ganancias de energía resultantes estarán lejos de ser suficientes para lograr una reducción en las emisiones generales de carbono.Manuel Cubero-Castan, gerente de proyectos de TI Sostenible en EPFL Sin embargo, la rápida expansión de la IA generativa podría poner mal estos pronósticos. La compañía china DeepSeek ya está sacudiendo las cosas – introdujo un programa generativo de IA a fines de enero que usa menos energía que sus contrapartes de Estados Unidos tanto para entrenar algoritmos como para responder a las indicaciones. Otro factor que podría detener el crecimiento de la demanda de energía de IA es la cantidad limitada de recursos mineros disponibles para producir chips. Nvidia actualmente domina el mercado de chips AI, con una cuota de mercado del 95%. Los tres millones de chips Nvidia H100 instalados en todo el mundo utilizaron 13.8 TWh de potencia en 2024 – la misma cantidad que Guatemala. Para 2027, los chips Nvidia podrían quemar entre 85 y 134 TWh de potencia. ¿Pero la compañía podrá producirlos a esa escala? No siempre es una elección sostenible Otro factor a considerar es si nuestras redes eléctricas envejecidas podrán soportar la carga adicional. Muchos de ellos, tanto a nivel nacional como local, ya están siendo empujados al límite para satisfacer la demanda actual. Y el hecho de que los centros de datos a menudo se concentren geográficamente complica aún más las cosas. Por ejemplo, los centros de datos representan el 20% del consumo de energía en Irlanda y más del 25% en el estado de Virginia en los Estados Unidos. “Construir centros de datos