ChatPaper.aiChatPaper

Эффективное с точки зрения коммуникаций обучение языковых моделей масштабируется надежно и устойчиво: законы масштабирования для DiLoCo

Communication-Efficient Language Model Training Scales Reliably and Robustly: Scaling Laws for DiLoCo

March 12, 2025
Авторы: Zachary Charles, Gabriel Teston, Lucio Dery, Keith Rush, Nova Fallen, Zachary Garrett, Arthur Szlam, Arthur Douillard
cs.AI

Аннотация

По мере масштабирования к более крупным моделям машинного обучения частые требования к синхронизации, присущие подходам с параллельной обработкой данных, создают значительные замедления, что представляет собой серьезное препятствие для дальнейшего масштабирования. В последних работах разработан подход (DiLoCo), который снижает требования к синхронизации без ущерба для качества модели. Однако в этих работах не проводится тщательный анализ того, как поведение DiLoCo изменяется с увеличением размера модели. В данной работе мы исследуем закономерности масштабирования DiLoCo при обучении крупных языковых моделей (LLM) с фиксированным бюджетом вычислений. Мы сосредоточимся на том, как алгоритмические факторы, включая количество реплик модели, гиперпараметры и бюджет токенов, влияют на обучение, что может быть точно предсказано с помощью законов масштабирования. Мы обнаруживаем, что DiLoCo масштабируется как предсказуемо, так и устойчиво с увеличением размера модели. При правильной настройке DiLoCo масштабируется лучше, чем обучение с параллельной обработкой данных, и может превосходить его даже для небольших моделей. Наши результаты демонстрируют более широкий набор преимуществ DiLoCo, чем было ранее задокументировано, включая увеличение оптимальных размеров батчей, улучшение обобщения на последующих этапах с увеличением масштаба и снижение потерь при оценке для фиксированного бюджета токенов.
English
As we scale to more massive machine learning models, the frequent synchronization demands inherent in data-parallel approaches create significant slowdowns, posing a critical challenge to further scaling. Recent work develops an approach (DiLoCo) that relaxes synchronization demands without compromising model quality. However, these works do not carefully analyze how DiLoCo's behavior changes with model size. In this work, we study the scaling law behavior of DiLoCo when training LLMs under a fixed compute budget. We focus on how algorithmic factors, including number of model replicas, hyperparameters, and token budget affect training in ways that can be accurately predicted via scaling laws. We find that DiLoCo scales both predictably and robustly with model size. When well-tuned, DiLoCo scales better than data-parallel training with model size, and can outperform data-parallel training even at small model sizes. Our results showcase a more general set of benefits of DiLoCo than previously documented, including increased optimal batch sizes, improved downstream generalization with scale, and improved evaluation loss for a fixed token budget.

Summary

AI-Generated Summary

PDF142March 14, 2025