Los costes ambientales ocultos del uso de chatbots de IA
- Admin
- 28 abr
- 5 Min. de lectura
Los chatbots consumen una cantidad inmensa de energÃa para responder a las preguntas de los usuarios, y solamente mantener los servidores del bot a una temperatura adecuada para funcionar en centros de datos tiene un impacto negativo en el medio ambiente. Si bien la carga exacta es casi imposible de cuantificar, The Washington Post colaboró ​​con investigadores de la Universidad de California en Riverside para comprender cuánta agua y energÃa consume ChatGPT de OpenAI, utilizando el modelo de lenguaje GPT-4 publicado en marzo de 2023, para escribir un correo electrónico promedio de 100 palabras.
El agua
Un correo electrónico de 100 palabras generado por un chatbot de IA con GPT-4 una vez requiere 519 mililitros de agua, poco más de una botella pequeña de agua.
Una vez a la semana durante un año requiere 27 litros. Una vez a la semana durante un año, por 1 de cada 10 estadounidenses trabajadores (aproximadamente 16 millones de personas), requiere 435.235.476 litros, el equivalente al agua que consumen todos los hogares de Rhode Island durante 1,5 dÃas.
Cada mensaje en ChatGPT fluye a través de un servidor que ejecuta miles de cálculos para determinar las mejores palabras para responder. Para realizar estos cálculos, estos servidores, generalmente alojados en centros de datos, generan calor. A menudo, se utilizan sistemas de agua para refrigerar los equipos y mantenerlos en funcionamiento. El agua transporta el calor generado en los centros de datos a torres de refrigeración para que escape del edificio, de forma similar a cómo el cuerpo humano utiliza el sudor para mantenerse fresco, según Shaolei Ren, profesor asociado de la UC Riverside.
Donde la electricidad es más barata o el agua es comparativamente escasa, a menudo se utiliza electricidad para refrigerar estos almacenes con grandes unidades similares a aires acondicionados. Esto significa que la cantidad de agua y electricidad que requiere una consulta individual puede depender de la ubicación del centro de datos y variar considerablemente.
Incluso en condiciones ideales, los centros de datos suelen ser de los que más agua consumen en las ciudades donde se ubican. Sin embargo, los centros de datos con sistemas de refrigeración eléctricos también generan preocupación, ya que aumentan las facturas de electricidad de los residentes y sobrecargan la red eléctrica.
En el caso de las imágenes generadas por IA, generar cada imagen puede consumir entre 2 y 5 litros de agua. La invasión de imágenes de ChatGPT estilo japonés que hemos estado viendo a principios de abril, han tenido un efecto negativo en el medioambiente. En solo cinco dÃas se han gastado más de 216 millones de litros.
Electricidad
Un correo electrónico de 100 palabras generado por un chatbot de IA con GPT-4 una vez requiere 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora.
Una vez a la semana durante un año requiere 7,5 kWh, lo que equivale a la electricidad consumida por 9,3 hogares de Washington D. C. durante 1 hora. Una vez a la semana durante un año por 1 de cada 10 estadounidenses que trabajan requiere 121.517 megavatios-hora (MWh), lo que equivale a la electricidad consumida por todos los hogares de Washington D. C. durante 20 dÃas.
Los centros de datos también requieren cantidades masivas de energÃa para respaldar otras actividades, como la computación en la nube, y la inteligencia artificial no ha hecho más que aumentar esa carga. Si un centro de datos está ubicado en una región cálida y depende del aire acondicionado para su refrigeración, se necesita mucha electricidad para mantener los servidores a baja temperatura. Si los centros de datos que dependen de la refrigeración por agua se ubican en zonas propensas a la sequÃa, corren el riesgo de agotar un recurso natural valioso. En el norte de Virginia, donde se encuentra la mayor concentración de centros de datos del mundo, grupos de ciudadanos han protestado contra la construcción de estos edificios, argumentando que no solo consumen mucha energÃa y no generan suficientes empleos a largo plazo, sino que también son un espantajo que perjudica el valor de las viviendas.
En West Des Moines, Iowa, un foco emergente de centros de datos, los registros del departamento de agua mostraron que las instalaciones gestionadas por empresas como Microsoft consumÃan alrededor del 6 % del agua total del distrito. Tras una larga batalla judicial, el periódico Oregonian obligó a Google a revelar cuánto consumÃan sus centros de datos en The Dalles, a unos 128 kilómetros al este de Portland, resultó ser casi una cuarta parte del agua disponible en la ciudad según revelaron los documentos.
Antes de que los chatbots puedan siquiera responder a una solicitud, se invierte una enorme cantidad de energÃa en su entrenamiento. Los amplios modelos de lenguaje que permiten a chatbots como ChatGPT generar respuestas realistas requieren servidores que analicen millones de datos.
Según expertos en IA y artÃculos de investigación, entrenar estos modelos informáticos avanzados puede llevar meses, y empresas tecnológicas como Google, Meta y Microsoft se apresuran a construir cada vez más centros de datos.
El coste de entrenar estos modelos de IA
El centro de datos de Microsoft utilizó 700.000 litros de agua durante el entrenamiento de GPT-3 y se necesitan aproximadamente 6.992 litros de agua para producir 450 g de carne de res, que se utiliza principalmente para cultivar alimento, limpiar la granja e hidratar a las vacas.
Se necesitan aproximadamente 4.956 litros de agua para producir 450 g de arroz, que se cultiva casi completamente sumergido. El coste de agua de LLaMA-3 equivale cultivar a aproximadamente 2.000 kg de arroz, aproximadamente lo que consumen 164 estadounidenses al año. Meta utilizó 22 millones de litros de agua para entrenar su modelo de código abierto LLaMA-3.
Las grandes empresas tecnológicas se han comprometido en numerosas ocasiones a que sus centros de datos sean más ecológicos mediante el uso de nuevos métodos de refrigeración. Sin embargo, estos compromisos climáticos a menudo no se cumplen.
En julio, Google publicó su informe ambiental más reciente, que muestra que su huella de carbono aumentó un 48 %, en gran medida gracias a la IA y los centros de datos. También reabasteció solo el 18 % del agua que consumÃa, muy por debajo del 120% que se habÃa fijado como objetivo para 2030.
"La IA puede consumir mucha energÃa, y por eso trabajamos constantemente para mejorar la eficiencia", declaró Kayla Wood, portavoz de OpenAI. Ashley Settle, portavoz de Meta, declaró que la compañÃa prioriza "operar nuestros centros de datos de forma sostenible y eficiente, garantizando al mismo tiempo que las personas puedan confiar en nuestros servicios". Craig Cincotta, director general de Microsoft, afirmó que la compañÃa "mantiene su compromiso de reducir la intensidad con la que extraemos recursos" y añadió que Microsoft está trabajando para instalar métodos de refrigeración en los centros de datos que "eliminarán por completo el consumo de agua".
Las empresas tecnológicas como Nvidia seguirán creando chips informáticos que generen más kilovatios de energÃa por servidor para realizar más cálculos, según los expertos. La IA está generando demandas sin precedentes en los centros de datos, que superan con creces cualquier otra en la historia reciente.
El rápido auge de la IA ha cambiado drásticamente esta trayectoria y ha presentado nuevos desafÃos que la industria nunca antes habÃa enfrentado.
Consulta el artÃculo original https://www.washingtonpost.com/technology/2024/09/18/energy-ai-use-electricity-water-data-centers/
Consulta la invesitgación completa: https://arxiv.org/pdf/2304.03271
