Observationele schaalwetten en de voorspelbaarheid van taalmodelprestaties
Observational Scaling Laws and the Predictability of Language Model Performance
May 17, 2024
Auteurs: Yangjun Ruan, Chris J. Maddison, Tatsunori Hashimoto
cs.AI
Samenvatting
Het begrijpen van hoe de prestaties van taalmodellen variëren met schaal is cruciaal voor de ontwikkeling van benchmarks en algoritmen. Schaalwetten zijn een benadering om dit inzicht op te bouwen, maar de vereiste om modellen op veel verschillende schalen te trainen, heeft hun gebruik beperkt. Wij stellen een alternatieve, observationele benadering voor die het trainen van modellen omzeilt en in plaats daarvan schaalwetten opbouwt uit ~80 publiek beschikbare modellen. Het opbouwen van een enkele schaalwet uit meerdere modelfamilies is uitdagend vanwege grote variaties in hun trainingscompute-efficiënties en -mogelijkheden. Wij laten echter zien dat deze variaties consistent zijn met een eenvoudige, gegeneraliseerde schaalwet waarbij de prestaties van taalmodellen een functie zijn van een laagdimensionale mogelijkheidsruimte, en modelfamilies alleen variëren in hun efficiëntie in het omzetten van trainingscompute naar mogelijkheden. Met deze benadering laten we de verrassende voorspelbaarheid van complexe schaalverschijnselen zien: we laten zien dat verschillende emergente verschijnselen een vloeiend, sigmoïdaal gedrag volgen en voorspelbaar zijn uit kleine modellen; we laten zien dat de agentprestaties van modellen zoals GPT-4 nauwkeurig kunnen worden voorspeld uit eenvoudigere niet-agentische benchmarks; en we laten zien hoe de impact van post-trainingsinterventies zoals Chain-of-Thought en Self-Consistency kan worden voorspeld naarmate de mogelijkheden van taalmodellen blijven verbeteren.
English
Understanding how language model performance varies with scale is critical to
benchmark and algorithm development. Scaling laws are one approach to building
this understanding, but the requirement of training models across many
different scales has limited their use. We propose an alternative,
observational approach that bypasses model training and instead builds scaling
laws from ~80 publically available models. Building a single scaling law from
multiple model families is challenging due to large variations in their
training compute efficiencies and capabilities. However, we show that these
variations are consistent with a simple, generalized scaling law where language
model performance is a function of a low-dimensional capability space, and
model families only vary in their efficiency in converting training compute to
capabilities. Using this approach, we show the surprising predictability of
complex scaling phenomena: we show that several emergent phenomena follow a
smooth, sigmoidal behavior and are predictable from small models; we show that
the agent performance of models such as GPT-4 can be precisely predicted from
simpler non-agentic benchmarks; and we show how to predict the impact of
post-training interventions like Chain-of-Thought and Self-Consistency as
language model capabilities continue to improve.