ChatPaper.aiChatPaper

Grootschalige Dataselectie voor Instructieafstemming

Large-Scale Data Selection for Instruction Tuning

March 3, 2025
Auteurs: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI

Samenvatting

Het selecteren van hoogwaardige trainingsgegevens uit een grotere pool is een cruciale stap bij het instruction-tuning van taalmodelen, omdat zorgvuldig samengestelde datasets vaak modellen opleveren die beter presteren dan die getraind op veel grotere, lawaaierige datasets. Geautomatiseerde methoden voor dataselectie bij instruction-tuning worden meestal getest door kleine datasets (ongeveer 10k samples) te selecteren uit kleine pools (100-200k samples). Echter, populaire, in gebruik genomen instruction-getunede modellen trainen vaak op honderdduizenden tot miljoenen samples, geselecteerd uit nog grotere datapools. Wij presenteren een systematische studie naar hoe goed dataselectiemethoden schalen naar deze omstandigheden, waarbij we tot 2,5 miljoen samples selecteren uit pools van maximaal 5,8 miljoen samples en evalueren over 7 diverse taken. We laten zien dat veel recent voorgestelde methoden in deze setting tekortschieten ten opzichte van willekeurige selectie (terwijl ze meer rekenkracht gebruiken), en zelfs in prestaties achteruitgaan wanneer ze toegang krijgen tot grotere datapools om uit te selecteren. Echter, we ontdekken dat een variant van representatiegebaseerde dataselectie (RDS+), die gebruikmaakt van gewogen gemiddelde pooling van verborgen toestanden van vooraf getrainde taalmodelen, consistent beter presteert dan complexere methoden in alle geteste omstandigheden – en dat terwijl het rekenkundig efficiënter is. Onze bevindingen benadrukken dat de schaaleigenschappen van voorgestelde geautomatiseerde selectiemethoden nauwkeuriger moeten worden onderzocht. We maken onze code, data en modellen beschikbaar op https://github.com/hamishivi/automated-instruction-selection.
English
Selecting high-quality training data from a larger pool is a crucial step when instruction-tuning language models, as carefully curated datasets often produce models that outperform those trained on much larger, noisier datasets. Automated data selection approaches for instruction-tuning are typically tested by selecting small datasets (roughly 10k samples) from small pools (100-200k samples). However, popular deployed instruction-tuned models often train on hundreds of thousands to millions of samples, subsampled from even larger data pools. We present a systematic study of how well data selection methods scale to these settings, selecting up to 2.5M samples from pools of up to 5.8M samples and evaluating across 7 diverse tasks. We show that many recently proposed methods fall short of random selection in this setting (while using more compute), and even decline in performance when given access to larger pools of data to select over. However, we find that a variant of representation-based data selection (RDS+), which uses weighted mean pooling of pretrained LM hidden states, consistently outperforms more complex methods across all settings tested -- all whilst being more compute-efficient. Our findings highlight that the scaling properties of proposed automated selection methods should be more closely examined. We release our code, data, and models at https://github.com/hamishivi/automated-instruction-selection.

Summary

AI-Generated Summary

PDF122March 4, 2025