ChatPaper.aiChatPaper

Une mise à l'échelle optimale nécessite une norme optimale

Optimal Scaling Needs Optimal Norm

October 4, 2025
papers.authors: Oleg Filatov, Jiangtao Wang, Jan Ebert, Stefan Kesselheim
cs.AI

papers.abstract

Malgré les progrès récents dans le transfert optimal des hyperparamètres lors de la mise à l'échelle des modèles et des jeux de données, aucun principe explicatif unificateur n'a été établi. En utilisant l'optimiseur Scion, nous découvrons que la mise à l'échelle optimale conjointe des tailles de modèle et de jeu de données est régie par un seul invariant : la norme d'opérateur de la couche de sortie. Pour des modèles allant jusqu'à 1,3 milliard de paramètres entraînés sur jusqu'à 138 milliards de tokens, le couple optimal taux d'apprentissage/taille de lot (eta^{ast}, B^{ast}) présente systématiquement la même valeur de norme d'opérateur - un phénomène que nous appelons transfert de norme. Cette condition de norme constante est nécessaire mais non suffisante : bien que pour chaque taille de jeu de données, plusieurs couples (eta, B) atteignent la norme optimale, seul un unique (eta^{ast}, B^{ast}) permet d'obtenir la meilleure perte. Comme condition suffisante, nous fournissons la première mesure de la mise à l'échelle de (eta^{ast}, B^{ast}) avec la taille du jeu de données pour Scion, et constatons que les règles de mise à l'échelle sont cohérentes avec celles de l'optimiseur Adam. L'ajustement des taux d'apprentissage par groupe de couches améliore également les performances du modèle, la couche de sortie étant la plus sensible et les couches cachées bénéficiant de taux d'apprentissage plus faibles. Nous fournissons des insights pratiques sur la mise à l'échelle optimale guidée par la norme et publions notre implémentation de Scion Distribué (Disco) avec les logs de plus de deux mille exécutions pour soutenir la recherche sur la dynamique d'entraînement des LLM à grande échelle.
English
Despite recent progress in optimal hyperparameter transfer under model and dataset scaling, no unifying explanatory principle has been established. Using the Scion optimizer, we discover that joint optimal scaling across model and dataset sizes is governed by a single invariant: the operator norm of the output layer. Across models with up to 1.3B parameters trained on up to 138B tokens, the optimal learning rate/batch size pair (eta^{ast}, B^{ast}) consistently has the same operator norm value - a phenomenon we term norm transfer. This constant norm condition is necessary but not sufficient: while for each dataset size, multiple (eta, B) reach the optimal norm, only a unique (eta^{ast}, B^{ast}) achieves the best loss. As a sufficient condition, we provide the first measurement of (eta^{ast}, B^{ast}) scaling with dataset size for Scion, and find that the scaling rules are consistent with those of the Adam optimizer. Tuning per-layer-group learning rates also improves model performance, with the output layer being the most sensitive and hidden layers benefiting from lower learning rates. We provide practical insights on norm-guided optimal scaling and release our Distributed Scion (Disco) implementation with logs from over two thousand runs to support research on LLM training dynamics at scale.
PDF272October 7, 2025