ChatPaper.aiChatPaper

Selezione su larga scala di dati per il tuning delle istruzioni

Large-Scale Data Selection for Instruction Tuning

March 3, 2025
Autori: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI

Abstract

La selezione di dati di addestramento di alta qualità da un insieme più ampio è un passaggio cruciale quando si effettua il fine-tuning di modelli linguistici su istruzioni, poiché dataset accuratamente curati spesso producono modelli che superano quelli addestrati su dataset molto più grandi e rumorosi. Gli approcci automatizzati per la selezione dei dati nel fine-tuning su istruzioni sono tipicamente testati selezionando piccoli dataset (circa 10k campioni) da pool ridotti (100-200k campioni). Tuttavia, i modelli popolari con fine-tuning su istruzioni spesso si addestrano su centinaia di migliaia o milioni di campioni, sottocampionati da pool di dati ancora più ampi. Presentiamo uno studio sistematico su come i metodi di selezione dei dati si adattano a queste impostazioni, selezionando fino a 2,5 milioni di campioni da pool di fino a 5,8 milioni di campioni e valutando su 7 task diversi. Dimostriamo che molti metodi proposti di recente non superano la selezione casuale in questo contesto (pur utilizzando più risorse computazionali), e addirittura peggiorano le prestazioni quando hanno accesso a pool di dati più ampi da cui selezionare. Tuttavia, scopriamo che una variante della selezione dei dati basata su rappresentazioni (RDS+), che utilizza il pooling ponderato degli stati nascosti di un modello linguistico preaddestrato, supera costantemente metodi più complessi in tutte le impostazioni testate, pur essendo più efficiente dal punto di vista computazionale. I nostri risultati evidenziano che le proprietà di scalabilità dei metodi di selezione automatizzati proposti dovrebbero essere esaminate più attentamente. Rilasciamo il nostro codice, dati e modelli all'indirizzo https://github.com/hamishivi/automated-instruction-selection.
English
Selecting high-quality training data from a larger pool is a crucial step when instruction-tuning language models, as carefully curated datasets often produce models that outperform those trained on much larger, noisier datasets. Automated data selection approaches for instruction-tuning are typically tested by selecting small datasets (roughly 10k samples) from small pools (100-200k samples). However, popular deployed instruction-tuned models often train on hundreds of thousands to millions of samples, subsampled from even larger data pools. We present a systematic study of how well data selection methods scale to these settings, selecting up to 2.5M samples from pools of up to 5.8M samples and evaluating across 7 diverse tasks. We show that many recently proposed methods fall short of random selection in this setting (while using more compute), and even decline in performance when given access to larger pools of data to select over. However, we find that a variant of representation-based data selection (RDS+), which uses weighted mean pooling of pretrained LM hidden states, consistently outperforms more complex methods across all settings tested -- all whilst being more compute-efficient. Our findings highlight that the scaling properties of proposed automated selection methods should be more closely examined. We release our code, data, and models at https://github.com/hamishivi/automated-instruction-selection.

Summary

AI-Generated Summary

PDF122March 4, 2025