De los FLOPS a la Huella: El Coste en Recursos de la Inteligencia Artificial
From FLOPs to Footprints: The Resource Cost of Artificial Intelligence
December 3, 2025
Autores: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI
Resumen
A medida que las demandas computacionales continúan aumentando, evaluar la huella ambiental de la IA requiere ir más allá del consumo de energía y agua para incluir las demandas materiales del hardware especializado. Este estudio cuantifica la huella material del entrenamiento de IA vinculando las cargas de trabajo computacionales con las necesidades físicas de hardware. Se analizó la composición elemental de la unidad de procesamiento de gráficos (GPU) Nvidia A100 SXM de 40 GB mediante espectroscopía de emisión óptica de plasma acoplado inductivamente, identificando 32 elementos. Los resultados muestran que el hardware de IA consiste en aproximadamente un 90% de metales pesados y solo trazas de metales preciosos. Los elementos cobre, hierro, estaño, silicio y níquel dominan la composición de la GPU en masa. En una metodología de múltiples pasos, integramos estas mediciones con el rendimiento computacional por GPU a lo largo de diferentes vidas útiles, teniendo en cuenta los requisitos computacionales para entrenar modelos específicos de IA en diferentes regímenes de eficiencia de entrenamiento. Los análisis basados en escenarios revelan que, dependiendo de la Utilización de FLOPs del Modelo (MFU) y la vida útil del hardware, entrenar GPT-4 requiere entre 1.174 y 8.800 GPUs A100, lo que corresponde a la extracción y eventual disposición de hasta 7 toneladas de elementos tóxicos. Las estrategias combinadas de optimización de software y hardware pueden reducir las demandas materiales: aumentar la MFU del 20% al 60% reduce los requisitos de GPU en un 67%, mientras que extender la vida útil de 1 a 3 años produce ahorros comparables; implementar ambas medidas juntas reduce las necesidades de GPU hasta en un 93%. Nuestros hallazgos destacan que las ganancias incrementales de rendimiento, como las observadas entre GPT-3.5 y GPT-4, conllevan costos materiales desproporcionadamente altos. El estudio subraya la necesidad de incorporar consideraciones sobre recursos materiales en los debates sobre la escalabilidad de la IA, enfatizando que el progreso futuro en IA debe alinearse con los principios de eficiencia de recursos y responsabilidad ambiental.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.