ChatPaper.aiChatPaper

Des FLOPs à l'empreinte : Le coût en ressources de l'intelligence artificielle

From FLOPs to Footprints: The Resource Cost of Artificial Intelligence

December 3, 2025
papers.authors: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI

papers.abstract

Alors que les besoins computationnels ne cessent d'augmenter, l'évaluation de l'empreinte environnementale de l'IA nécessite de dépasser la consommation d'énergie et d'eau pour inclure les demandes matérielles des équipements spécialisés. Cette étude quantifie l'empreinte matérielle de l'entraînement de l'IA en reliant les charges de travail computationnelles aux besoins physiques en matériel. La composition élémentaire du processeur graphique (GPU) Nvidia A100 SXM 40 Go a été analysée par spectrométrie d'émission optique à plasma induit, identifiant 32 éléments. Les résultats montrent que le matériel d'IA est composé d'environ 90 % de métaux lourds et seulement de traces de métaux précieux. Les éléments cuivre, fer, étain, silicium et nickel dominent la composition du GPU en masse. Selon une méthodologie en plusieurs étapes, nous intégrons ces mesures avec le débit computationnel par GPU sur différentes durées de vie, en tenant compte des exigences computationnelles pour l'entraînement de modèles d'IA spécifiques à différents régimes d'efficacité. Des analyses par scénarios révèlent que, selon le taux d'utilisation des FLOPs du modèle (MFU) et la durée de vie du matériel, l'entraînement de GPT-4 nécessite entre 1 174 et 8 800 GPU A100, ce qui correspond à l'extraction et à l'élimination finale de jusqu'à 7 tonnes d'éléments toxiques. Des stratégies combinées d'optimisation logicielle et matérielle peuvent réduire les demandes matérielles : augmenter le MFU de 20 % à 60 % réduit les besoins en GPU de 67 %, tandis que prolonger la durée de vie de 1 à 3 ans génère des économies comparables ; la mise en œuvre conjointe des deux mesures réduit les besoins en GPU jusqu'à 93 %. Nos résultats soulignent que les gains de performance incrémentaux, comme ceux observés entre GPT-3.5 et GPT-4, ont un coût matériel disproportionné. L'étude souligne la nécessité d'intégrer les considérations sur les ressources matérielles dans les discussions sur l'évolutivité de l'IA, en insistant sur le fait que les progrès futurs de l'IA doivent s'aligner sur les principes d'efficacité des ressources et de responsabilité environnementale.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.
PDF12December 9, 2025