ChatPaper.aiChatPaper

Fantastische Vorabtrainingsoptimierer und wo man sie findet

Fantastic Pretraining Optimizers and Where to Find Them

September 2, 2025
papers.authors: Kaiyue Wen, David Hall, Tengyu Ma, Percy Liang
cs.AI

papers.abstract

AdamW ist seit langem der dominierende Optimierer beim Pretraining von Sprachmodellen, trotz zahlreicher Behauptungen, dass alternative Optimierer eine Beschleunigung um das 1,4- bis 2-fache bieten. Wir gehen davon aus, dass zwei methodische Mängel faire Vergleiche erschwert und die praktische Übernahme behindert haben: (i) ungleiche Hyperparameterabstimmung und (ii) begrenzte oder irreführende Evaluierungssetups. Um diese beiden Probleme zu adressieren, führen wir eine systematische Studie von zehn Deep-Learning-Optimierern über vier Modellgrößen (0,1B-1,2B Parameter) und Daten-zu-Modell-Verhältnisse (1-8x das Chinchilla-Optimum) durch. Wir stellen fest, dass faire und informative Vergleiche eine rigorose Hyperparameterabstimmung und Evaluierungen über eine Reihe von Modellgrößen und Daten-zu-Modell-Verhältnissen erfordern, die am Ende des Trainings durchgeführt werden. Erstens können optimale Hyperparameter für einen Optimierer für einen anderen suboptimal sein, was eine blinde Hyperparameterübertragung unfair macht. Zweitens ist die tatsächliche Beschleunigung vieler vorgeschlagener Optimierer gegenüber gut abgestimmten Baselines geringer als behauptet und nimmt mit der Modellgröße auf nur 1,1x für 1,2B-Parameter-Modelle ab. Drittens kann der Vergleich von Zwischencheckpoints vor Erreichen der Ziel-Trainingsbudgets irreführend sein, da sich die Rangfolge zwischen zwei Optimierern während des Trainings aufgrund der Lernratenabnahme umkehren kann. Durch unsere gründliche Untersuchung stellen wir fest, dass alle schnellsten Optimierer wie Muon und Soap Matrizen als Vorkonditionierer verwenden – sie multiplizieren Gradienten mit Matrizen anstatt mit skalarwertigen Einträgen. Die Beschleunigung von matrixbasierten Optimierern ist jedoch umgekehrt proportional zur Modellgröße und nimmt von 1,4x gegenüber AdamW für 0,1B-Parameter-Modelle auf lediglich 1,1x für 1,2B-Parameter-Modelle ab.
English
AdamW has long been the dominant optimizer in language model pretraining, despite numerous claims that alternative optimizers offer 1.4 to 2x speedup. We posit that two methodological shortcomings have obscured fair comparisons and hindered practical adoption: (i) unequal hyperparameter tuning and (ii) limited or misleading evaluation setups. To address these two issues, we conduct a systematic study of ten deep learning optimizers across four model scales (0.1B-1.2B parameters) and data-to-model ratios (1-8x the Chinchilla optimum). We find that fair and informative comparisons require rigorous hyperparameter tuning and evaluations across a range of model scales and data-to-model ratios, performed at the end of training. First, optimal hyperparameters for one optimizer may be suboptimal for another, making blind hyperparameter transfer unfair. Second, the actual speedup of many proposed optimizers over well-tuned baselines is lower than claimed and decreases with model size to only 1.1x for 1.2B parameter models. Thirdly, comparing intermediate checkpoints before reaching the target training budgets can be misleading, as rankings between two optimizers can flip during training due to learning rate decay. Through our thorough investigation, we find that all the fastest optimizers such as Muon and Soap, use matrices as preconditioners -- multiplying gradients with matrices rather than entry-wise scalars. However, the speedup of matrix-based optimizers is inversely proportional to model scale, decreasing from 1.4x over AdamW for 0.1B parameter models to merely 1.1x for 1.2B parameter models.
PDF101September 3, 2025