ChatPaper.aiChatPaper

Benchmarking von Optimierern für das Pretraining großer Sprachmodelle

Benchmarking Optimizers for Large Language Model Pretraining

September 1, 2025
papers.authors: Andrei Semenov, Matteo Pagliardini, Martin Jaggi
cs.AI

papers.abstract

Die jüngste Entwicklung von Large Language Models (LLMs) wurde von einer Vielzahl neuer Ideen und Methoden begleitet, die darauf abzielen, den Verlust von Deep-Learning-Modellen besser zu optimieren. Die Behauptungen dieser Methoden sind vielfältig: von schnellerer Konvergenz bis hin zur Unabhängigkeit von bestimmten Hyperparametern. Die unterschiedlichen experimentellen Protokolle, die zur Validierung dieser Behauptungen verwendet werden, erschweren jedoch den direkten Vergleich zwischen den Methoden. Diese Studie präsentiert eine umfassende Bewertung aktueller Optimierungstechniken in standardisierten LLM-Vortrainingsszenarien, wobei systematisch Modellgröße, Batch-Größe und Trainingsdauer variiert werden. Durch sorgfältige Abstimmung jeder Methode bieten wir Praktikern Leitlinien, welcher Optimierer für welches Szenario am besten geeignet ist. Für Forscher hebt unsere Arbeit vielversprechende Richtungen für zukünftige Optimierungsforschung hervor. Schließlich hoffen wir, dass unsere Bemühungen durch die Veröffentlichung unseres Codes und die vollständige Reproduzierbarkeit aller Experimente die Entwicklung und rigorose Bewertung zukünftiger Methoden unterstützen können.
English
The recent development of Large Language Models (LLMs) has been accompanied by an effervescence of novel ideas and methods to better optimize the loss of deep learning models. Claims from those methods are myriad: from faster convergence to removing reliance on certain hyperparameters. However, the diverse experimental protocols used to validate these claims make direct comparisons between methods challenging. This study presents a comprehensive evaluation of recent optimization techniques across standardized LLM pretraining scenarios, systematically varying model size, batch size, and training duration. Through careful tuning of each method, we provide guidance to practitioners on which optimizer is best suited for each scenario. For researchers, our work highlights promising directions for future optimization research. Finally, by releasing our code and making all experiments fully reproducible, we hope our efforts can help the development and rigorous benchmarking of future methods.
PDF191September 3, 2025