ChatGPT necesita diez veces más electricidad para responder a un mensaje que para que Google realice una búsqueda estándar. Aún así, los investigadores están luchando para comprender las implicaciones energéticas de la inteligencia artificial generativa tanto ahora como en el futuro.
Pocas personas se dan cuenta de que la huella de carbono de la tecnología digital está a la par con la de la industria aeroespacial, representando entre el 2% y el 4% de las emisiones globales de carbono. Y esta huella de carbono digital se está expandiendo a un ritmo rápido. Cuando se trata del uso de energía, los aproximadamente 11,000 centros de datos en operación hoy consumen tanta energía como lo hizo todo el país de Francia en 2022, o alrededor de 460 TWh por año. ¿La adopción generalizada de IA generativa hará que esas cifras se disparen?
La nueva tecnología afectará claramente la cantidad de energía que se consume en todo el mundo, pero exactamente cómo es difícil de cuantificar. “Necesitamos saber el costo total de los sistemas de IA generativa para poder usarlos de la manera más eficiente posible,” dice Manuel Cubero-Castan, gerente de proyecto en TI sostenible en EPFL. Él cree que debemos considerar todo el ciclo de vida de la tecnología de IA generativa, desde la extracción de minerales y el ensamblaje de componentes – actividades cuyo impacto concierne no solo a la energía – hasta la eliminación de las toneladas de desechos electrónicos que se generan, que a menudo se vierten ilegalmente. Desde esta perspectiva, las ramificaciones ambientales de la IA generativa van mucho más allá del consumo de energía y agua de los centros de datos.
El costo de la capacitación
Por ahora, la mayoría de los datos disponibles sobre el uso de energía de la tecnología digital se relacionan solo con los centros de datos. Según la Agencia Internacional de Energía (AIE), estos centros (excluyendo las redes de datos y la minería de criptomonedas) consumieron entre 240 TWh y 340 TWh de energía en 2022, o del 1% al 1.3% del total global. Sin embargo, a pesar de que el número de centros está creciendo en un 4% por año, su uso general de energía no cambió mucho entre 2010 y 2020, gracias a la energía
mejoras de eficiencia.
Con la IA generativa establecida para ser adoptada a gran escala, eso ciertamente cambiará. La tecnología de IA generativa se basa en modelos de lenguaje grande (LLM) que utilizan la energía de dos maneras. Primero, mientras están siendo entrenados –, un paso que implica ejecutar terabytes de datos a través de algoritmos para que aprendan a predecir palabras y oraciones en un contexto dado. Hasta hace poco, este era el paso más intensivo en energía.
En segundo lugar, mientras procesan datos en respuesta a un mensaje. Ahora que los LLM se están implementando a gran escala, este es el paso que requiere la mayor cantidad de energía. Datos recientes de Meta y Google sugieren que este paso ahora representa del 60% al 70% de la potencia utilizada por los sistemas de IA generativa, frente al 30% al 40% para la capacitación.
Consulta ChatGPT vs búsqueda convencional de Google
Una consulta ChatGPT consume alrededor de 3 Wh de potencia, mientras que una búsqueda convencional en Google utiliza 0.3 Wh, según la AIE. Si todas las aproximadamente nueve mil millones de búsquedas de Google realizadas diariamente se cambiaran a ChatGPT, eso aumentaría el requisito de potencia total en 10 TWh por año. Goldman Sachs Research (GSR) estima que la cantidad de electricidad utilizada por los centros de datos aumentará en un 160% en los próximos cinco años, y que representará del 3% al 4% del uso mundial de electricidad. Además, sus emisiones de carbono probablemente se duplicarán entre 2022 y 2030. Según las cifras de la AIE, la demanda total de energía en Europa disminuyó durante tres años seguidos, pero aumentó en 2024 y debería volver a los niveles de 2021 – unos 2,560 TWh por año – para 2026. Casi un tercio de este aumento se debe a los centros de datos.GSR estima que la demanda de energía relacionada con la IA en los centros de datos crecerá en aproximadamente 200 TWh por año entre 2023 y 2030. Para 2028, la IA debería representar casi el 19% del consumo de energía de data centers’.
Si comenzamos a utilizar la tecnología de IA generativa a gran escala, con LLM cada vez más grandes, las ganancias de energía resultantes estarán lejos de ser suficientes para lograr una reducción en las emisiones generales de carbono.Manuel Cubero-Castan, gerente de proyectos de TI Sostenible en EPFL
Sin embargo, la rápida expansión de la IA generativa podría poner mal estos pronósticos. La compañía china DeepSeek ya está sacudiendo las cosas – introdujo un programa generativo de IA a fines de enero que usa menos energía que sus contrapartes de Estados Unidos tanto para entrenar algoritmos como para responder a las indicaciones. Otro factor que podría detener el crecimiento de la demanda de energía de IA es la cantidad limitada de recursos mineros disponibles para producir chips. Nvidia actualmente domina el mercado de chips AI, con una cuota de mercado del 95%. Los tres millones de chips Nvidia H100 instalados en todo el mundo utilizaron 13.8 TWh de potencia en 2024 – la misma cantidad que Guatemala. Para 2027, los chips Nvidia podrían quemar entre 85 y 134 TWh de potencia. ¿Pero la compañía podrá producirlos a esa escala?
No siempre es una elección sostenible
Otro factor a considerar es si nuestras redes eléctricas envejecidas podrán soportar la carga adicional. Muchos de ellos, tanto a nivel nacional como local, ya están siendo empujados al límite para satisfacer la demanda actual. Y el hecho de que los centros de datos a menudo se concentren geográficamente complica aún más las cosas. Por ejemplo, los centros de datos representan el 20% del consumo de energía en Irlanda y más del 25% en el estado de Virginia en los Estados Unidos. “Construir centros de datos en regiones donde el agua y las fuentes de alimentación ya están tensas puede no ser la opción más sostenible,” dice Cubero-Castan.
También está el problema de los costos. Si Google quisiera poder procesar consultas generativas de IA, necesitaría configurar 400,000 servidores adicionales – a un precio de unos 100 mil millones de dólares, lo que reduciría su margen operativo a cero. Un escenario poco probable.
Beneficios sin explotar
Parte del aumento en el consumo de energía causado por la IA generativa podría compensarse con los beneficios de la IA en general. Aunque los algoritmos de capacitación requieren una inversión, podrían dar sus frutos en términos de ahorro de energía o beneficios climáticos. Por ejemplo, la IA podría acelerar el ritmo de la innovación en el sector energético. Eso podría ayudar a los usuarios a predecir y reducir mejor su uso de energía; permitir que las empresas de servicios públicos administren sus redes eléctricas de manera más efectiva; mejorar la gestión de recursos; y permitir a los ingenieros ejecutar simulaciones e impulsar avances a la vanguardia del modelado, la economía climática, la educación y la investigación básica. Si somos capaces de aprovechar los beneficios de este tipo de innovación dependerá de sus impactos, cuán ampliamente los consumidores adopten la nueva tecnología y qué tan bien lo entiendan los responsables políticos y los proyectos de ley para gobernarla.
Los centros de datos de próxima generación que se están construyendo hoy en día son más eficientes energéticamente y permiten una mayor flexibilidad en la forma en que se utiliza su capacidad. Del mismo modo, Nvidia está trabajando para mejorar el rendimiento de sus chips al tiempo que reduce sus requisitos de potencia. Y no debemos olvidar el potencial de la computación cuántica. Cuando se trata de centros de datos, la AIE calcula que el 40% de la electricidad que utilizan se destina a la refrigeración, el 40% a la ejecución de servidores y el 20% a otros componentes del sistema, incluido el almacenamiento y la comunicación de datos. En EPFL, el profesor Mario Paolone está dirigiendo el Bits de Calefacción iniciativa para construir un demostrador para probar nuevos métodos de enfriamiento. Cinco grupos de investigación y el Centro EcoCloudse han unido para la iniciativa, con el objetivo de desarrollar nuevos procesos para la recuperación de calor, la cogeneración, la incorporación de energía renovable y la optimización del uso del servidor.
Teniendo en cuenta la imagen más grande
Otra forma (indolora y gratuita) de cortar el uso de energía de los centros de datos’ es eliminar el desorden. Cada día, las empresas de todo el mundo generan 1,3 billones de gigabytes de datos, la mayoría de los cuales terminan como datos oscuros, o datos que se recopilan y almacenan pero nunca se usan. Los investigadores de Loughborough Business School estiman que el 60% de los datos que se conservan hoy en día son datos oscuros, y almacenarlos emite tanto carbono como tres millones de vuelos de London–New York. El Día de Limpieza Digital de este año se llevará a cabo el 15 de marzo, ¡pero no tiene que esperar hasta la primavera para hacer su limpieza!
Cubero-Castan nos advierte, sin embargo, que tengamos en cuenta el panorama general: “Si comenzamos a usar la tecnología de IA generativa a gran escala, con LLM cada vez más grandes, las ganancias de energía resultantes estarán lejos de ser suficientes para lograr una reducción en las emisiones generales de carbono. Reducir nuestro uso y aumentar la vida útil y la eficiencia de nuestra infraestructura sigue siendo esencial.”
El impacto energético de la IA generativa no debe pasarse por alto, pero por ahora solo es marginal a nivel global – simplemente se suma al consumo de energía ya considerable de la tecnología digital en general. Los videos actualmente representan del 70% al 80% del tráfico de datos en todo el mundo, mientras que otros contribuyentes importantes son los juegos multijugador en línea y la criptomoneda. Los principales impulsores de la demanda de energía hoy en día son el crecimiento económico, los vehículos eléctricos, el aire acondicionado y la fabricación. Y la mayor parte de ese poder todavía proviene de combustibles fósiles.
Referencias
Este artículo fue publicado en el número de Dimensions, que se publicó el 14 de marzo de 2025. Dimensions, una revista EPFL que muestra investigaciones de vanguardia a través de una serie de artículos en profundidad, entrevistas, retratos y noticias destacadas. Publicado cuatro veces al año en Inglés y Francés, se puede enviar a cualquiera que quiera suscribirse así como miembros contribuyentes del EPFL Alumni Club. También se distribuye de forma gratuita en los campus de EPFLf. EPFL News. A. M-B. Traducido al español