ChatPaper.aiChatPaper

De FLOPs a Pegadas: O Custo de Recursos da Inteligência Artificial

From FLOPs to Footprints: The Resource Cost of Artificial Intelligence

December 3, 2025
Autores: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI

Resumo

À medida que as demandas computacionais continuam a aumentar, a avaliação da pegada ambiental da IA requer ir além do consumo de energia e água para incluir as exigências materiais de hardware especializado. Este estudo quantifica a pegada material do treinamento de IA vinculando cargas de trabalho computacionais às necessidades físicas de hardware. A composição elementar da unidade de processamento gráfico (GPU) Nvidia A100 SXM 40 GB foi analisada por espectrometria de emissão óptica com plasma indutivamente acoplado, que identificou 32 elementos. Os resultados mostram que o hardware de IA consiste em cerca de 90% de metais pesados e apenas vestígios de metais preciosos. Os elementos cobre, ferro, estanho, silício e níquel dominam a composição da GPU em massa. Em uma metodologia de múltiplas etapas, integramos essas medições com a taxa de transferência computacional por GPU ao longo de diferentes tempos de vida útil, considerando os requisitos computacionais para treinar modelos específicos de IA em diferentes regimes de eficiência de treinamento. Análises baseadas em cenários revelam que, dependendo da Utilização de FLOPs do Modelo (MFU) e da vida útil do hardware, o treinamento do GPT-4 requer entre 1.174 e 8.800 GPUs A100, correspondendo à extração e descarte final de até 7 toneladas de elementos tóxicos. Estratégias combinadas de otimização de software e hardware podem reduzir as demandas materiais: aumentar a MFU de 20% para 60% reduz os requisitos de GPU em 67%, enquanto estender a vida útil de 1 para 3 anos gera economias comparáveis; implementar ambas as medidas em conjunto reduz as necessidades de GPU em até 93%. Nossos achados destacam que ganhos incrementais de desempenho, como os observados entre o GPT-3.5 e o GPT-4, acarretam custos materiais desproporcionalmente altos. O estudo ressalta a necessidade de incorporar considerações sobre recursos materiais nas discussões sobre a escalabilidade da IA, enfatizando que o progresso futuro na IA deve alinhar-se aos princípios de eficiência de recursos e responsabilidade ambiental.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.
PDF32February 27, 2026