Phi-4 テクニカルレポート
Phi-4 Technical Report
December 12, 2024
著者: Marah Abdin, Jyoti Aneja, Harkirat Behl, Sébastien Bubeck, Ronen Eldan, Suriya Gunasekar, Michael Harrison, Russell J. Hewett, Mojan Javaheripi, Piero Kauffmann, James R. Lee, Yin Tat Lee, Yuanzhi Li, Weishung Liu, Caio C. T. Mendes, Anh Nguyen, Eric Price, Gustavo de Rosa, Olli Saarikivi, Adil Salim, Shital Shah, Xin Wang, Rachel Ward, Yue Wu, Dingli Yu, Cyril Zhang, Yi Zhang
cs.AI
要旨
phi-4は、データ品質に焦点を当てたトレーニングレシピで開発された140億パラメータの言語モデルであり、我々はそれを紹介する。通常の言語モデルとは異なり、事前トレーニングは主にウェブコンテンツやコードなどのオーガニックデータソースに基づいているが、phi-4は戦略的に合成データをトレーニングプロセス全体に取り入れている。Phiファミリーの以前のモデルは、主に教師モデル(具体的にはGPT-4)の能力を抽出していたが、phi-4はSTEMに焦点を当てたQA能力において教師モデルを大幅に上回り、我々のデータ生成およびポストトレーニング技術が抽出を超えている証拠を提供している。phi-3アーキテクチャにほとんど変更を加えながらも、phi-4はサイズに対して強力なパフォーマンスを達成しており、特に推論に焦点を当てたベンチマークにおいて、改善されたデータ、トレーニングカリキュラム、およびポストトレーニングスキームによって優れた成績を収めている。
English
We present phi-4, a 14-billion parameter language model developed with a
training recipe that is centrally focused on data quality. Unlike most language
models, where pre-training is based primarily on organic data sources such as
web content or code, phi-4 strategically incorporates synthetic data throughout
the training process. While previous models in the Phi family largely distill
the capabilities of a teacher model (specifically GPT-4), phi-4 substantially
surpasses its teacher model on STEM-focused QA capabilities, giving evidence
that our data-generation and post-training techniques go beyond distillation.
Despite minimal changes to the phi-3 architecture, phi-4 achieves strong
performance relative to its size -- especially on reasoning-focused benchmarks
-- due to improved data, training curriculum, and innovations in the
post-training scheme.Summary
AI-Generated Summary