ChatPaper.aiChatPaper

Lois d'échelle observationnelles et prédictibilité des performances des modèles de langage

Observational Scaling Laws and the Predictability of Language Model Performance

May 17, 2024
Auteurs: Yangjun Ruan, Chris J. Maddison, Tatsunori Hashimoto
cs.AI

Résumé

Comprendre comment la performance des modèles de langage varie avec l'échelle est crucial pour l'établissement de benchmarks et le développement d'algorithmes. Les lois d'échelle constituent une approche pour acquérir cette compréhension, mais la nécessité d'entraîner des modèles à de nombreuses échelles différentes en a limité l'utilisation. Nous proposons une approche alternative, observationnelle, qui contourne l'entraînement des modèles et construit plutôt des lois d'échelle à partir d'environ 80 modèles disponibles publiquement. Construire une seule loi d'échelle à partir de plusieurs familles de modèles est complexe en raison des grandes variations dans leurs efficacités de calcul d'entraînement et leurs capacités. Cependant, nous montrons que ces variations sont cohérentes avec une loi d'échelle généralisée simple, où la performance des modèles de langage est fonction d'un espace de capacités de faible dimension, et où les familles de modèles ne varient que dans leur efficacité à convertir le calcul d'entraînement en capacités. En utilisant cette approche, nous démontrons la prévisibilité surprenante de phénomènes d'échelle complexes : nous montrons que plusieurs phénomènes émergents suivent un comportement lisse et sigmoïde et sont prévisibles à partir de petits modèles ; nous montrons que la performance d'agents de modèles comme GPT-4 peut être précisément prédite à partir de benchmarks non agentiques plus simples ; et nous montrons comment prédire l'impact d'interventions post-entraînement comme la Chaîne de Pensée et l'Auto-Cohérence à mesure que les capacités des modèles de langage continuent de s'améliorer.
English
Understanding how language model performance varies with scale is critical to benchmark and algorithm development. Scaling laws are one approach to building this understanding, but the requirement of training models across many different scales has limited their use. We propose an alternative, observational approach that bypasses model training and instead builds scaling laws from ~80 publically available models. Building a single scaling law from multiple model families is challenging due to large variations in their training compute efficiencies and capabilities. However, we show that these variations are consistent with a simple, generalized scaling law where language model performance is a function of a low-dimensional capability space, and model families only vary in their efficiency in converting training compute to capabilities. Using this approach, we show the surprising predictability of complex scaling phenomena: we show that several emergent phenomena follow a smooth, sigmoidal behavior and are predictable from small models; we show that the agent performance of models such as GPT-4 can be precisely predicted from simpler non-agentic benchmarks; and we show how to predict the impact of post-training interventions like Chain-of-Thought and Self-Consistency as language model capabilities continue to improve.

Summary

AI-Generated Summary

PDF141December 15, 2024