ChatPaper.aiChatPaper

Großmaßstäbliche Datenauswahl für Instruktionsfeinabstimmung

Large-Scale Data Selection for Instruction Tuning

March 3, 2025
Autoren: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI

Zusammenfassung

Die Auswahl hochwertiger Trainingsdaten aus einem größeren Pool ist ein entscheidender Schritt beim Instruction-Tuning von Sprachmodellen, da sorgfältig kuratierte Datensätze oft Modelle hervorbringen, die solche übertreffen, die auf viel größeren, verrauschteren Datensätzen trainiert wurden. Automatisierte Ansätze zur Datenauswahl für das Instruction-Tuning werden typischerweise getestet, indem kleine Datensätze (etwa 10.000 Beispiele) aus kleinen Pools (100.000–200.000 Beispiele) ausgewählt werden. Allerdings trainieren häufig eingesetzte instruction-getunte Modelle oft auf Hunderttausenden bis Millionen von Beispielen, die aus noch größeren Datenpools subsampelt werden. Wir präsentieren eine systematische Studie darüber, wie gut sich Datenauswahlmethoden auf diese Szenarien skalieren lassen, indem wir bis zu 2,5 Millionen Beispiele aus Pools von bis zu 5,8 Millionen Beispielen auswählen und über 7 verschiedene Aufgaben hinweg evaluieren. Wir zeigen, dass viele kürzlich vorgeschlagene Methoden in diesem Kontext hinter einer zufälligen Auswahl zurückbleiben (während sie mehr Rechenleistung verbrauchen) und sogar an Leistung verlieren, wenn sie Zugang zu größeren Datenpools zur Auswahl erhalten. Allerdings stellen wir fest, dass eine Variante der repräsentationsbasierten Datenauswahl (RDS+), die gewichtetes Mean-Pooling von versteckten Zuständen vortrainierter Sprachmodelle verwendet, durchweg komplexere Methoden in allen getesteten Szenarien übertrifft – und dabei recheneffizienter ist. Unsere Ergebnisse unterstreichen, dass die Skalierungseigenschaften vorgeschlagener automatisierter Auswahlmethoden genauer untersucht werden sollten. Wir veröffentlichen unseren Code, Daten und Modelle unter https://github.com/hamishivi/automated-instruction-selection.
English
Selecting high-quality training data from a larger pool is a crucial step when instruction-tuning language models, as carefully curated datasets often produce models that outperform those trained on much larger, noisier datasets. Automated data selection approaches for instruction-tuning are typically tested by selecting small datasets (roughly 10k samples) from small pools (100-200k samples). However, popular deployed instruction-tuned models often train on hundreds of thousands to millions of samples, subsampled from even larger data pools. We present a systematic study of how well data selection methods scale to these settings, selecting up to 2.5M samples from pools of up to 5.8M samples and evaluating across 7 diverse tasks. We show that many recently proposed methods fall short of random selection in this setting (while using more compute), and even decline in performance when given access to larger pools of data to select over. However, we find that a variant of representation-based data selection (RDS+), which uses weighted mean pooling of pretrained LM hidden states, consistently outperforms more complex methods across all settings tested -- all whilst being more compute-efficient. Our findings highlight that the scaling properties of proposed automated selection methods should be more closely examined. We release our code, data, and models at https://github.com/hamishivi/automated-instruction-selection.

Summary

AI-Generated Summary

PDF122March 4, 2025