Dai FLOP alle Impronte: Il Costo in Risorse dell'Intelligenza Artificiale
From FLOPs to Footprints: The Resource Cost of Artificial Intelligence
December 3, 2025
Autori: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI
Abstract
Con l'aumentare costante delle richieste computazionali, la valutazione dell'impronta ambientale dell'IA richiede di andare oltre il consumo di energia e acqua per includere le richieste di materiali dell'hardware specializzato. Questo studio quantifica l'impronta materiale dell'addestramento dell'IA collegando i carichi di lavoro computazionali alle necessità fisiche dell'hardware. La composizione elementare dell'unità di elaborazione grafica (GPU) Nvidia A100 SXM da 40 GB è stata analizzata mediante spettroscopia di emissione ottica al plasma accoppiato induttivamente, che ha identificato 32 elementi. I risultati mostrano che l'hardware per l'IA è composto per circa il 90% da metalli pesanti e solo da tracce di metalli preziosi. Gli elementi rame, ferro, stagno, silicio e nichel dominano la composizione della GPU in termini di massa. In una metodologia multi-step, integriamo queste misurazioni con la produttività computazionale per GPU lungo diversi cicli di vita, tenendo conto dei requisiti computazionali per l'addestramento di modelli di IA specifici in diversi regimi di efficienza. Analisi basate su scenari rivelano che, a seconda dell'Utilizzo dei FLOP del Modello (MFU) e della durata dell'hardware, l'addestramento di GPT-4 richiede tra 1.174 e 8.800 GPU A100, corrispondenti all'estrazione e allo smaltimento finale fino a 7 tonnellate di elementi tossici. Strategie combinate di ottimizzazione software e hardware possono ridurre la domanda di materiali: aumentare l'MFU dal 20% al 60% riduce i requisiti di GPU del 67%, mentre estendere la durata da 1 a 3 anni produce risparmi comparabili; l'implementazione congiunta di entrambe le misure riduce le necessità di GPU fino al 93%. I nostri risultati evidenziano che i guadagni incrementali di performance, come quelli osservati tra GPT-3.5 e GPT-4, comportano costi materiali sproporzionatamente alti. Lo studio sottolinea la necessità di incorporare le considerazioni sulle risorse materiali nelle discussioni sulla scalabilità dell'IA, enfatizzando che i progressi futuri nell'IA devono allinearsi ai principi di efficienza delle risorse e responsabilità ambientale.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.