ChatPaper.aiChatPaper

Von FLOPs zu Fußabdrücken: Der Ressourcenaufwand Künstlicher Intelligenz

From FLOPs to Footprints: The Resource Cost of Artificial Intelligence

December 3, 2025
papers.authors: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI

papers.abstract

Mit steigenden Rechenanforderungen erfordert die Bewertung des ökologischen Fußabdrucks von KI eine Erweiterung über Energie- und Wasserverbrauch hinaus, um auch den Materialbedarf spezialisierter Hardware einzubeziehen. Diese Studie quantifiziert den Materialfußabdruck des KI-Trainings, indem sie Rechenlasten mit physischen Hardwareanforderungen verknüpft. Die elementare Zusammensetzung der Nvidia A100 SXM 40 GB Graphics Processing Unit (GPU) wurde mittels optischer Emissionsspektrometrie mit induktiv gekoppeltem Plasma analysiert, wobei 32 Elemente identifiziert wurden. Die Ergebnisse zeigen, dass KI-Hardware zu etwa 90 % aus Schwermetallen und nur in Spuren aus Edelmetallen besteht. Die Elemente Kupfer, Eisen, Zinn, Silizium und Nickel dominieren die GPU-Zusammensetzung massebezogen. In einer mehrstufigen Methodik integrieren wir diese Messungen mit dem Rechendurchsatz pro GPU über verschiedene Lebensdauern hinweg und berücksichtigen die Rechenanforderungen für das Training spezifischer KI-Modelle bei unterschiedlichen Trainingseffizienzregimen. Szenariobasierte Analysen zeigen, dass das Training von GPT-4 – abhängig von der Model FLOPs Utilization (MFU) und der Hardware-Lebensdauer – zwischen 1.174 und 8.800 A100-GPUs erfordert, was der Extraktion und letztendlichen Entsorgung von bis zu 7 Tonnen toxischer Elemente entspricht. Kombinierte Software- und Hardware-Optimierungsstrategien können den Materialbedarf reduzieren: Eine Erhöhung der MFU von 20 % auf 60 % senkt den GPU-Bedarf um 67 %, während eine Verlängerung der Lebensdauer von 1 auf 3 Jahre vergleichbare Einsparungen bringt; die Umsetzung beider Maßnahmen zusammen reduziert den GPU-Bedarf um bis zu 93 %. Unsere Ergebnisse unterstreichen, dass inkrementelle Leistungssteigerungen, wie sie zwischen GPT-3.5 und GPT-4 beobachtet wurden, mit unverhältnismäßig hohen Materialkosten einhergehen. Die Studie betont die Notwendigkeit, Materialressourcen in die Diskussionen zur KI-Skalierbarkeit einzubeziehen, und hebt hervor, dass zukünftige Fortschritte in der KI mit den Prinzipien der Ressourceneffizienz und Umweltverantwortung in Einklang stehen müssen.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.
PDF12December 9, 2025