ChatPaper.aiChatPaper

Communicatie-efficiënte training van taalmodel schaalt betrouwbaar en robuust: Schaalwetten voor DiLoCo

Communication-Efficient Language Model Training Scales Reliably and Robustly: Scaling Laws for DiLoCo

March 12, 2025
Auteurs: Zachary Charles, Gabriel Teston, Lucio Dery, Keith Rush, Nova Fallen, Zachary Garrett, Arthur Szlam, Arthur Douillard
cs.AI

Samenvatting

Naarmate we opschalen naar grotere machine learning-modellen, veroorzaken de frequente synchronisatie-eisen die inherent zijn aan data-parallelle benaderingen aanzienlijke vertragingen, wat een kritieke uitdaging vormt voor verdere schaalvergroting. Recent werk ontwikkelt een aanpak (DiLoCo) die de synchronisatie-eisen versoepelt zonder in te leveren op modelkwaliteit. Deze studies analyseren echter niet zorgvuldig hoe het gedrag van DiLoCo verandert met de modelgrootte. In dit werk bestuderen we het schaalgedrag van DiLoCo bij het trainen van LLM's onder een vast rekenbudget. We richten ons op hoe algoritmische factoren, waaronder het aantal modelreplica's, hyperparameters en het tokenbudget, de training beïnvloeden op manieren die nauwkeurig kunnen worden voorspeld via schaalwetten. We ontdekken dat DiLoCo zowel voorspelbaar als robuust schaalt met de modelgrootte. Wanneer goed afgesteld, schaalt DiLoCo beter dan data-parallelle training met de modelgrootte, en kan het zelfs bij kleine modelgroottes data-parallelle training overtreffen. Onze resultaten tonen een breder scala aan voordelen van DiLoCo dan eerder gedocumenteerd, waaronder grotere optimale batchgroottes, verbeterde downstream-generalizatie met schaal, en verbeterde evaluatiewinst voor een vast tokenbudget.
English
As we scale to more massive machine learning models, the frequent synchronization demands inherent in data-parallel approaches create significant slowdowns, posing a critical challenge to further scaling. Recent work develops an approach (DiLoCo) that relaxes synchronization demands without compromising model quality. However, these works do not carefully analyze how DiLoCo's behavior changes with model size. In this work, we study the scaling law behavior of DiLoCo when training LLMs under a fixed compute budget. We focus on how algorithmic factors, including number of model replicas, hyperparameters, and token budget affect training in ways that can be accurately predicted via scaling laws. We find that DiLoCo scales both predictably and robustly with model size. When well-tuned, DiLoCo scales better than data-parallel training with model size, and can outperform data-parallel training even at small model sizes. Our results showcase a more general set of benefits of DiLoCo than previously documented, including increased optimal batch sizes, improved downstream generalization with scale, and improved evaluation loss for a fixed token budget.

Summary

AI-Generated Summary

PDF142March 14, 2025