От FLOP к углеродному следу: ресурсная цена искусственного интеллекта
From FLOPs to Footprints: The Resource Cost of Artificial Intelligence
December 3, 2025
Авторы: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe
cs.AI
Аннотация
По мере роста вычислительных потребностей оценка экологического следа ИИ требует выхода за рамки учета энергопотребления и водопользования и включения материальных затрат на специализированное оборудование. В данном исследовании количественно оценивается материальный след обучения ИИ путем связи вычислительных нагрузок с потребностями в физическом оборудовании. Элементный состав графического процессора (GPU) Nvidia A100 SXM 40 ГБ был проанализирован с помощью атомно-эмиссионной спектрометрии с индуктивно-связанной плазмой, что позволило идентифицировать 32 элемента. Результаты показывают, что аппаратное обеспечение ИИ примерно на 90% состоит из тяжелых металлов и лишь следовых количеств драгоценных металлов. По массе в составе GPU преобладают медь, железо, олово, кремний и никель. Используя многоэтапную методологию, мы интегрируем эти измерения с вычислительной пропускной способностью на один GPU при различных сроках службы, учитывая вычислительные требования для обучения конкретных моделей ИИ в разных режимах эффективности обучения. Сценарный анализ показывает, что в зависимости от утилизации FLOPs модели (MFU) и срока службы оборудования для обучения GPT-4 требуется от 1 174 до 8 800 GPU A100, что соответствует извлечению и последующему захоронению до 7 тонн токсичных элементов. Совместные стратегии оптимизации программного и аппаратного обеспечения могут снизить материальные затраты: увеличение MFU с 20% до 60% сокращает потребность в GPU на 67%, а увеличение срока службы с 1 до 3 лет дает сопоставимую экономию; реализация обеих мер вместе снижает потребность в GPU до 93%. Наши выводы подчеркивают, что инкрементальное повышение производительности, как, например, наблюдаемое между GPT-3.5 и GPT-4, сопряжено с непропорционально высокими материальными затратами. Исследование указывает на необходимость включения соображений о материальных ресурсах в дискуссии о масштабируемости ИИ, подчеркивая, что будущий прогресс в области ИИ должен соответствовать принципам ресурсоэффективности и экологической ответственности.
English
As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.