El rápido desarrollo y despliegue de potentes modelos de IA generativa trae consigo consecuencias ambientales, entre ellas una mayor demanda de electricidad y consumo de agua.
En una serie de dos partes, MIT News explora las implicaciones ambientales de la IA generativa. En este artículo, analizamos por qué esta tecnología consume tantos recursos. En un segundo artículo, se investigará qué están haciendo los expertos para reducir la huella de carbono de la IA generativa y otros impactos.
Es difícil ignorar el entusiasmo que rodea los posibles beneficios de la IA generativa , desde la mejora de la productividad de los trabajadores hasta el avance de la investigación científica. Si bien el crecimiento explosivo de esta nueva tecnología ha permitido la rápida implementación de modelos potentes en muchas industrias, las consecuencias ambientales de esta “fiebre del oro” de la IA generativa siguen siendo difíciles de precisar, y mucho menos de mitigar.
La potencia computacional necesaria para entrenar modelos de IA generativos que a menudo tienen miles de millones de parámetros, como el GPT-4 de OpenAI, puede demandar una asombrosa cantidad de electricidad, lo que genera mayores emisiones de dióxido de carbono y presiones sobre la red eléctrica.
Además, implementar estos modelos en aplicaciones del mundo real, lo que permite a millones de personas usar IA generativa en su vida diaria y luego ajustar los modelos para mejorar su rendimiento, consume grandes cantidades de energía mucho después de que se haya desarrollado un modelo.
Además de la demanda de electricidad, se necesita una gran cantidad de agua para enfriar el hardware que se utiliza para entrenar, implementar y ajustar los modelos de IA generativa, lo que puede sobrecargar los suministros de agua municipales y alterar los ecosistemas locales. El creciente número de aplicaciones de IA generativa también ha estimulado la demanda de hardware informático de alto rendimiento, lo que suma impactos ambientales indirectos a su fabricación y transporte.
“Cuando pensamos en el impacto ambiental de la IA generativa, no se trata solo de la electricidad que consumes cuando enchufas la computadora. Hay consecuencias mucho más amplias que llegan a un nivel de sistema y persisten en función de las acciones que tomamos”, dice Elsa A. Olivetti, profesora del Departamento de Ciencia e Ingeniería de Materiales y líder de la Misión de Descarbonización del nuevo Proyecto Climático del MIT .
Olivetti es autor principal de un artículo de 2024, “ Las implicaciones climáticas y de sostenibilidad de la IA generativa ”, coescrito por colegas del MIT en respuesta a una convocatoria de todo el Instituto para artículos que exploren el potencial transformador de la IA generativa, tanto en direcciones positivas como negativas para la sociedad.
Centros de datos exigentes
Las demandas de electricidad de los centros de datos son un factor importante que contribuye a los impactos ambientales de la IA generativa, ya que los centros de datos se utilizan para entrenar y ejecutar los modelos de aprendizaje profundo detrás de herramientas populares como ChatGPT y DALL-E.
Un centro de datos es un edificio con temperatura controlada que alberga infraestructura informática, como servidores, unidades de almacenamiento de datos y equipos de red. Por ejemplo, Amazon tiene más de 100 centros de datos en todo el mundo , cada uno de los cuales tiene alrededor de 50.000 servidores que la empresa utiliza para respaldar los servicios de computación en la nube.
Si bien los centros de datos existen desde la década de 1940 (el primero se construyó en la Universidad de Pensilvania en 1945 para respaldar la primera computadora digital de propósito general , la ENIAC), el auge de la IA generativa ha incrementado drásticamente el ritmo de construcción de centros de datos.
“Lo que diferencia a la IA generativa es la densidad de potencia que requiere. Básicamente, es solo computación, pero un clúster de entrenamiento de IA generativa puede consumir siete u ocho veces más energía que una carga de trabajo de computación típica”, dice Noman Bashir, autor principal del artículo de impacto, quien es becario de Computing and Climate Impact Fellow en el Consorcio sobre Clima y Sostenibilidad del MIT (MCSC) y posdoctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL).
Los científicos han estimado que las necesidades energéticas de los centros de datos en América del Norte aumentaron de 2.688 megavatios a fines de 2022 a 5.341 megavatios a fines de 2023, en parte impulsados por las demandas de la IA generativa. A nivel mundial, el consumo de electricidad de los centros de datos aumentó a 460 teravatios en 2022. Esto habría convertido a los centros de datos en el undécimo mayor consumidor de electricidad del mundo, entre las naciones de Arabia Saudita (371 teravatios) y Francia (463 teravatios), según la Organización para la Cooperación y el Desarrollo Económicos.
Se espera que para 2026, el consumo de electricidad de los centros de datos se acerque a los 1.050 teravatios (lo que llevaría a los centros de datos al quinto lugar en la lista mundial, entre Japón y Rusia).
Si bien no todos los cálculos de los centros de datos implican IA generativa, la tecnología ha sido un impulsor importante del aumento de la demanda energética.
“La demanda de nuevos centros de datos no se puede satisfacer de manera sostenible. El ritmo al que las empresas construyen nuevos centros de datos significa que la mayor parte de la electricidad para alimentarlos debe provenir de plantas de energía basadas en combustibles fósiles”, afirma Bashir.
Es difícil determinar la potencia necesaria para entrenar e implementar un modelo como el GPT-3 de OpenAI. En un artículo de investigación de 2021, científicos de Google y la Universidad de California en Berkeley estimaron que solo el proceso de entrenamiento consumía 1287 megavatios hora de electricidad (suficiente para abastecer a unos 120 hogares estadounidenses promedio durante un año), lo que generaba alrededor de 552 toneladas de dióxido de carbono.
Si bien todos los modelos de aprendizaje automático deben ser entrenados, un problema exclusivo de la IA generativa son las rápidas fluctuaciones en el uso de energía que ocurren en las diferentes fases del proceso de entrenamiento, explica Bashir.
Los operadores de redes eléctricas deben tener una forma de absorber esas fluctuaciones para proteger la red, y generalmente emplean generadores basados en diésel para esa tarea.
Aumento del impacto de la inferencia
Una vez entrenado un modelo de IA generativo, las demandas de energía no desaparecen.
Cada vez que se utiliza un modelo, por ejemplo cuando una persona le pide a ChatGPT que resuma un correo electrónico, el hardware informático que realiza esas operaciones consume energía. Los investigadores han estimado que una consulta de ChatGPT consume aproximadamente cinco veces más electricidad que una simple búsqueda en la web.
“Pero un usuario común no piensa demasiado en eso”, dice Bashir. “La facilidad de uso de las interfaces de IA generativa y la falta de información sobre el impacto ambiental de mis acciones significa que, como usuario, no tengo muchos incentivos para reducir el uso de la IA generativa”.
Con la IA tradicional, el uso de energía se divide de manera bastante equitativa entre el procesamiento de datos, el entrenamiento de modelos y la inferencia, que es el proceso de usar un modelo entrenado para hacer predicciones sobre nuevos datos. Sin embargo, Bashir espera que las demandas de electricidad de la inferencia de IA generativa dominen con el tiempo, ya que estos modelos se están volviendo omnipresentes en muchas aplicaciones y la electricidad necesaria para la inferencia aumentará a medida que las futuras versiones de los modelos se vuelvan más grandes y complejas.
Además, los modelos de IA generativa tienen una vida útil especialmente corta, impulsada por la creciente demanda de nuevas aplicaciones de IA. Las empresas lanzan nuevos modelos cada pocas semanas, por lo que la energía utilizada para entrenar versiones anteriores se desperdicia, agrega Bashir. Los nuevos modelos a menudo consumen más energía para el entrenamiento, ya que generalmente tienen más parámetros que sus predecesores.
Si bien las demandas de electricidad de los centros de datos pueden recibir la mayor atención en la literatura de investigación, la cantidad de agua consumida por estas instalaciones también tiene impactos ambientales.
El agua helada se utiliza para enfriar un centro de datos absorbiendo el calor de los equipos informáticos. Se ha calculado que, por cada kilovatio hora de energía que consume un centro de datos, se necesitarían dos litros de agua para la refrigeración, afirma Bashir.
“El hecho de que esto se llame ‘computación en la nube’ no significa que el hardware resida en la nube. Los centros de datos están presentes en nuestro mundo físico y, debido al uso de agua que hacen, tienen implicaciones directas e indirectas para la biodiversidad”, afirma.
El hardware informático dentro de los centros de datos genera sus propios impactos ambientales menos directos.
Si bien es difícil estimar cuánta energía se necesita para fabricar una GPU, un tipo de procesador potente que puede manejar cargas de trabajo intensivas de IA generativa, sería más de lo que se necesita para producir una CPU más simple porque el proceso de fabricación es más complejo. La huella de carbono de una GPU se ve agravada por las emisiones relacionadas con el transporte de materiales y productos.
La obtención de las materias primas utilizadas para fabricar GPU también tiene implicaciones medioambientales, ya que pueden implicar procedimientos de minería sucios y el uso de productos químicos tóxicos para su procesamiento.
La firma de investigación de mercados TechInsights estima que los tres principales productores (NVIDIA, AMD e Intel) enviaron 3,85 millones de GPU a centros de datos en 2023, frente a los 2,67 millones de 2022. Se espera que esa cifra haya aumentado en un porcentaje aún mayor en 2024.
La industria está en un camino insostenible, pero hay formas de fomentar el desarrollo responsable de la IA generativa que apoye los objetivos ambientales, dice Bashir.
Él, Olivetti y sus colegas del MIT sostienen que esto requerirá una consideración exhaustiva de todos los costos ambientales y sociales de la IA generativa, así como una evaluación detallada del valor de sus beneficios percibidos.
“Necesitamos una forma más contextualizada de comprender de manera sistemática y exhaustiva las implicaciones de los nuevos avances en este ámbito. Debido a la velocidad con la que se han producido las mejoras, no hemos tenido la oportunidad de ponernos al día con nuestras capacidades para medir y comprender las ventajas y desventajas”, afirma Olivetti. MIT News. A. Z. Traducido al español