ChatPaper.aiChatPaper

Leggi Osservative di Scalabilità e Prevedibilità delle Prestazioni dei Modelli Linguistici

Observational Scaling Laws and the Predictability of Language Model Performance

May 17, 2024
Autori: Yangjun Ruan, Chris J. Maddison, Tatsunori Hashimoto
cs.AI

Abstract

Comprendere come le prestazioni dei modelli linguistici variano con la scala è fondamentale per lo sviluppo di benchmark e algoritmi. Le leggi di scala rappresentano un approccio per costruire questa comprensione, ma la necessità di addestrare modelli su molte scale diverse ne ha limitato l'uso. Proponiamo un approccio alternativo, di tipo osservativo, che aggira l'addestramento dei modelli e costruisce invece le leggi di scala a partire da circa 80 modelli disponibili pubblicamente. Costruire una singola legge di scala da più famiglie di modelli è impegnativo a causa delle grandi variazioni nelle loro efficienze computazionali di addestramento e nelle capacità. Tuttavia, dimostriamo che queste variazioni sono coerenti con una semplice legge di scala generalizzata, in cui le prestazioni del modello linguistico sono una funzione di uno spazio di capacità a bassa dimensionalità, e le famiglie di modelli variano solo nella loro efficienza nel convertire il calcolo di addestramento in capacità. Utilizzando questo approccio, dimostriamo la sorprendente prevedibilità di fenomeni di scala complessi: mostriamo che diversi fenomeni emergenti seguono un comportamento regolare e sigmoidale e sono prevedibili a partire da modelli piccoli; dimostriamo che le prestazioni di agenti come GPT-4 possono essere previste con precisione da benchmark non agentici più semplici; e mostriamo come prevedere l'impatto di interventi post-addestramento come il Chain-of-Thought e la Self-Consistency man mano che le capacità dei modelli linguistici continuano a migliorare.
English
Understanding how language model performance varies with scale is critical to benchmark and algorithm development. Scaling laws are one approach to building this understanding, but the requirement of training models across many different scales has limited their use. We propose an alternative, observational approach that bypasses model training and instead builds scaling laws from ~80 publically available models. Building a single scaling law from multiple model families is challenging due to large variations in their training compute efficiencies and capabilities. However, we show that these variations are consistent with a simple, generalized scaling law where language model performance is a function of a low-dimensional capability space, and model families only vary in their efficiency in converting training compute to capabilities. Using this approach, we show the surprising predictability of complex scaling phenomena: we show that several emergent phenomena follow a smooth, sigmoidal behavior and are predictable from small models; we show that the agent performance of models such as GPT-4 can be precisely predicted from simpler non-agentic benchmarks; and we show how to predict the impact of post-training interventions like Chain-of-Thought and Self-Consistency as language model capabilities continue to improve.
PDF141February 8, 2026