Leis de Escalonamento Observacional e a Previsibilidade do Desempenho de Modelos de Linguagem
Observational Scaling Laws and the Predictability of Language Model Performance
May 17, 2024
Autores: Yangjun Ruan, Chris J. Maddison, Tatsunori Hashimoto
cs.AI
Resumo
Compreender como o desempenho dos modelos de linguagem varia com a escala é crucial para o desenvolvimento de benchmarks e algoritmos. As leis de escalonamento são uma abordagem para construir esse entendimento, mas a necessidade de treinar modelos em várias escalas diferentes limitou seu uso. Propomos uma abordagem alternativa, observacional, que contorna o treinamento de modelos e, em vez disso, constrói leis de escalonamento a partir de ~80 modelos publicamente disponíveis. Construir uma única lei de escalonamento a partir de múltiplas famílias de modelos é desafiador devido às grandes variações em suas eficiências e capacidades de computação de treinamento. No entanto, mostramos que essas variações são consistentes com uma lei de escalonamento generalizada e simples, onde o desempenho do modelo de linguagem é uma função de um espaço de capacidades de baixa dimensionalidade, e as famílias de modelos variam apenas em sua eficiência em converter computação de treinamento em capacidades. Usando essa abordagem, mostramos a surpreendente previsibilidade de fenômenos complexos de escalonamento: mostramos que vários fenômenos emergentes seguem um comportamento suave e sigmoidal e são previsíveis a partir de modelos pequenos; mostramos que o desempenho de agentes de modelos como o GPT-4 pode ser previsto com precisão a partir de benchmarks não agentes mais simples; e mostramos como prever o impacto de intervenções pós-treinamento, como Chain-of-Thought e Self-Consistency, à medida que as capacidades dos modelos de linguagem continuam a melhorar.
English
Understanding how language model performance varies with scale is critical to
benchmark and algorithm development. Scaling laws are one approach to building
this understanding, but the requirement of training models across many
different scales has limited their use. We propose an alternative,
observational approach that bypasses model training and instead builds scaling
laws from ~80 publically available models. Building a single scaling law from
multiple model families is challenging due to large variations in their
training compute efficiencies and capabilities. However, we show that these
variations are consistent with a simple, generalized scaling law where language
model performance is a function of a low-dimensional capability space, and
model families only vary in their efficiency in converting training compute to
capabilities. Using this approach, we show the surprising predictability of
complex scaling phenomena: we show that several emergent phenomena follow a
smooth, sigmoidal behavior and are predictable from small models; we show that
the agent performance of models such as GPT-4 can be precisely predicted from
simpler non-agentic benchmarks; and we show how to predict the impact of
post-training interventions like Chain-of-Thought and Self-Consistency as
language model capabilities continue to improve.