ChatPaper.aiChatPaper

大規模データ選択による指示チューニング

Large-Scale Data Selection for Instruction Tuning

March 3, 2025
著者: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI

要旨

大規模なデータプールから高品質な訓練データを選択することは、命令チューニングを行う言語モデルにおいて重要なステップです。なぜなら、注意深く選別されたデータセットは、より大規模でノイジーなデータセットで訓練されたモデルをしばしば上回るからです。命令チューニングのための自動化されたデータ選択手法は、通常、小規模なプール(10万~20万サンプル)から小規模なデータセット(約1万サンプル)を選択することでテストされます。しかし、実際に展開されている人気のある命令チューニング済みモデルは、数十万から数百万のサンプルを、さらに大規模なデータプールからサブサンプリングして訓練されることが多いです。本研究では、これらの設定においてデータ選択手法がどの程度スケールするかを体系的に調査し、最大580万サンプルのプールから最大250万サンプルを選択し、7つの多様なタスクで評価しました。その結果、最近提案された多くの手法が、この設定においてランダム選択に及ばない(かつより多くの計算リソースを使用する)こと、さらには選択対象となるデータプールが大きくなるにつれて性能が低下することを示しました。しかし、事前訓練済み言語モデルの隠れ状態の重み付き平均プーリングを使用する表現ベースのデータ選択手法(RDS+)のバリエーションが、すべてのテストされた設定において、より複雑な手法を一貫して上回り、かつ計算効率も高いことがわかりました。我々の研究結果は、提案された自動選択手法のスケーリング特性をより詳細に検討すべきであることを強調しています。コード、データ、およびモデルはhttps://github.com/hamishivi/automated-instruction-selectionで公開しています。
English
Selecting high-quality training data from a larger pool is a crucial step when instruction-tuning language models, as carefully curated datasets often produce models that outperform those trained on much larger, noisier datasets. Automated data selection approaches for instruction-tuning are typically tested by selecting small datasets (roughly 10k samples) from small pools (100-200k samples). However, popular deployed instruction-tuned models often train on hundreds of thousands to millions of samples, subsampled from even larger data pools. We present a systematic study of how well data selection methods scale to these settings, selecting up to 2.5M samples from pools of up to 5.8M samples and evaluating across 7 diverse tasks. We show that many recently proposed methods fall short of random selection in this setting (while using more compute), and even decline in performance when given access to larger pools of data to select over. However, we find that a variant of representation-based data selection (RDS+), which uses weighted mean pooling of pretrained LM hidden states, consistently outperforms more complex methods across all settings tested -- all whilst being more compute-efficient. Our findings highlight that the scaling properties of proposed automated selection methods should be more closely examined. We release our code, data, and models at https://github.com/hamishivi/automated-instruction-selection.

Summary

AI-Generated Summary

PDF122March 4, 2025