ChatPaper.aiChatPaper

観測的スケーリング則と言語モデル性能の予測可能性

Observational Scaling Laws and the Predictability of Language Model Performance

May 17, 2024
著者: Yangjun Ruan, Chris J. Maddison, Tatsunori Hashimoto
cs.AI

要旨

言語モデルの性能がスケールに応じてどのように変化するかを理解することは、ベンチマークやアルゴリズム開発において極めて重要です。スケーリング則はこの理解を構築するための一つのアプローチですが、多くの異なるスケールでモデルを訓練する必要があるため、その利用は限られています。我々は、モデルの訓練を回避し、代わりに約80の公開モデルからスケーリング則を構築する観察的アプローチを提案します。複数のモデルファミリーから単一のスケーリング則を構築することは、それらの訓練計算効率と能力に大きなばらつきがあるため困難です。しかし、これらのばらつきは、言語モデルの性能が低次元の能力空間の関数であり、モデルファミリーは訓練計算を能力に変換する効率のみが異なるという単純で一般化されたスケーリング則と一致することを示します。このアプローチを用いて、複雑なスケーリング現象の驚くべき予測可能性を示します:いくつかの創発現象が滑らかなシグモイド挙動に従い、小さなモデルから予測可能であることを示します;GPT-4のようなモデルのエージェント性能が、より単純な非エージェント的ベンチマークから正確に予測可能であることを示します;そして、Chain-of-ThoughtやSelf-Consistencyのような訓練後の介入の影響を、言語モデルの能力が向上し続ける中でどのように予測するかを示します。
English
Understanding how language model performance varies with scale is critical to benchmark and algorithm development. Scaling laws are one approach to building this understanding, but the requirement of training models across many different scales has limited their use. We propose an alternative, observational approach that bypasses model training and instead builds scaling laws from ~80 publically available models. Building a single scaling law from multiple model families is challenging due to large variations in their training compute efficiencies and capabilities. However, we show that these variations are consistent with a simple, generalized scaling law where language model performance is a function of a low-dimensional capability space, and model families only vary in their efficiency in converting training compute to capabilities. Using this approach, we show the surprising predictability of complex scaling phenomena: we show that several emergent phenomena follow a smooth, sigmoidal behavior and are predictable from small models; we show that the agent performance of models such as GPT-4 can be precisely predicted from simpler non-agentic benchmarks; and we show how to predict the impact of post-training interventions like Chain-of-Thought and Self-Consistency as language model capabilities continue to improve.

Summary

AI-Generated Summary

PDF141December 15, 2024