命令逆翻訳による自己アラインメント
Self-Alignment with Instruction Backtranslation
August 11, 2023
著者: Xian Li, Ping Yu, Chunting Zhou, Timo Schick, Luke Zettlemoyer, Omer Levy, Jason Weston, Mike Lewis
cs.AI
要旨
我々は、人間が書いたテキストに対応する指示を自動的にラベル付けすることで、高品質な指示追従型言語モデルを構築するスケーラブルな手法を提案する。本手法は「指示逆翻訳(instruction backtranslation)」と名付けられ、少量のシードデータでファインチューニングされた言語モデルと、与えられたウェブコーパスから始まる。シードモデルは、ウェブ文書に対して指示プロンプトを生成し(自己拡張)、これらの候補から高品質な例を選択する(自己選定)ことで、トレーニング例を構築するために使用される。このデータを用いて、より強力なモデルをファインチューニングする。我々のアプローチを2回繰り返してLLaMaをファインチューニングすることで、蒸留データに依存しないAlpacaリーダーボードにおいて、他の全てのLLaMaベースのモデルを上回る性能を示し、非常に効果的な自己整合性を実証した。
English
We present a scalable method to build a high quality instruction following
language model by automatically labelling human-written text with corresponding
instructions. Our approach, named instruction backtranslation, starts with a
language model finetuned on a small amount of seed data, and a given web
corpus. The seed model is used to construct training examples by generating
instruction prompts for web documents (self-augmentation), and then selecting
high quality examples from among these candidates (self-curation). This data is
then used to finetune a stronger model. Finetuning LLaMa on two iterations of
our approach yields a model that outperforms all other LLaMa-based models on
the Alpaca leaderboard not relying on distillation data, demonstrating highly
effective self-alignment.