ChatPaper.aiChatPaper

Leistungsplaner: Ein Lernratenplaner unabhängig von Stapelgröße und Tokenanzahl

Power Scheduler: A Batch Size and Token Number Agnostic Learning Rate Scheduler

August 23, 2024
Autoren: Yikang Shen, Matthew Stallone, Mayank Mishra, Gaoyuan Zhang, Shawn Tan, Aditya Prasad, Adriana Meza Soria, David D. Cox, Rameswar Panda
cs.AI

Zusammenfassung

Die Ermittlung der optimalen Lernrate für das Vortrainieren von Sprachmodellen ist eine anspruchsvolle Aufgabe. Dies liegt nicht nur daran, dass eine komplexe Korrelation zwischen Lernrate, Batch-Größe, Anzahl der Trainings-Token, Modellgröße und anderen Hyperparametern besteht, sondern auch daran, dass es prohibitiv teuer ist, eine Hyperparameter-Suche für große Sprachmodelle mit Milliarden oder Billionen von Parametern durchzuführen. Aktuelle Studien schlagen vor, kleine Proxy-Modelle und kleine Korpora zu verwenden, um Hyperparametersuchen durchzuführen und die optimalen Parameter auf große Modelle und große Korpora zu übertragen. Während die Nullschuss-Übertragbarkeit theoretisch und empirisch für mit der Modellgröße zusammenhängende Hyperparameter wie Tiefe und Breite nachgewiesen ist, ist die Nullschuss-Übertragung von kleinen Korpora auf große Korpora noch wenig erforscht. In diesem Paper untersuchen wir die Korrelation zwischen optimaler Lernrate, Batch-Größe und Anzahl der Trainings-Token für den kürzlich vorgeschlagenen WSD-Scheduler. Nach Tausenden von kleinen Experimenten fanden wir eine Potenzgesetzbeziehung zwischen den Variablen und zeigten deren Übertragbarkeit über Modellgrößen hinweg. Basierend auf der Beobachtung schlagen wir einen neuen Lernraten-Scheduler vor, den Power-Scheduler, der unabhängig von der Anzahl der Trainings-Token und der Batch-Größe ist. Das Experiment zeigt, dass die Kombination des Power-Schedulers mit der Maximum Update Parameterization (muP) mit einem Satz von Hyperparametern unabhängig von der Anzahl der Trainings-Token, der Batch-Größe, der Modellgröße und sogar der Modellarchitektur beeindruckende Leistungen erzielen kann. Unsere 3B dichten und MoE-Modelle, die mit dem Power-Scheduler trainiert wurden, erreichen vergleichbare Leistungen wie modernste kleine Sprachmodelle. Wir stellen diese vortrainierten Modelle unter https://ibm.biz/BdKhLa als Open Source zur Verfügung.
English
Finding the optimal learning rate for language model pretraining is a challenging task. This is not only because there is a complicated correlation between learning rate, batch size, number of training tokens, model size, and other hyperparameters but also because it is prohibitively expensive to perform a hyperparameter search for large language models with Billions or Trillions of parameters. Recent studies propose using small proxy models and small corpus to perform hyperparameter searches and transposing the optimal parameters to large models and large corpus. While the zero-shot transferability is theoretically and empirically proven for model size related hyperparameters, like depth and width, the zero-shot transfer from small corpus to large corpus is underexplored. In this paper, we study the correlation between optimal learning rate, batch size, and number of training tokens for the recently proposed WSD scheduler. After thousands of small experiments, we found a power-law relationship between variables and demonstrated its transferability across model sizes. Based on the observation, we propose a new learning rate scheduler, Power scheduler, that is agnostic about the number of training tokens and batch size. The experiment shows that combining the Power scheduler with Maximum Update Parameterization (muP) can consistently achieve impressive performance with one set of hyperparameters regardless of the number of training tokens, batch size, model size, and even model architecture. Our 3B dense and MoE models trained with the Power scheduler achieve comparable performance as state-of-the-art small language models. We open-source these pretrained models at https://ibm.biz/BdKhLa.

Summary

AI-Generated Summary

PDF254November 16, 2024