ChatPaper.aiChatPaper

Seleção de Dados em Grande Escala para Ajuste de Instruções

Large-Scale Data Selection for Instruction Tuning

March 3, 2025
Autores: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI

Resumo

A seleção de dados de treinamento de alta qualidade a partir de um conjunto maior é uma etapa crucial ao ajustar modelos de linguagem por instrução, pois conjuntos de dados cuidadosamente curados frequentemente produzem modelos que superam aqueles treinados em conjuntos de dados muito maiores e mais ruidosos. As abordagens automatizadas de seleção de dados para ajuste por instrução são tipicamente testadas selecionando pequenos conjuntos de dados (aproximadamente 10 mil amostras) de pequenos pools (100-200 mil amostras). No entanto, modelos populares ajustados por instrução em produção frequentemente treinam com centenas de milhares a milhões de amostras, subamostradas de pools de dados ainda maiores. Apresentamos um estudo sistemático de como os métodos de seleção de dados se dimensionam para esses cenários, selecionando até 2,5 milhões de amostras de pools de até 5,8 milhões de amostras e avaliando em 7 tarefas diversas. Mostramos que muitos métodos propostos recentemente ficam aquém da seleção aleatória nesse cenário (enquanto usam mais recursos computacionais), e até mesmo apresentam queda de desempenho quando têm acesso a pools maiores de dados para seleção. No entanto, descobrimos que uma variante da seleção de dados baseada em representação (RDS+), que usa pooling ponderado de médias dos estados ocultos de modelos de linguagem pré-treinados, consistentemente supera métodos mais complexos em todos os cenários testados — tudo isso sendo mais eficiente em termos computacionais. Nossos achados destacam que as propriedades de dimensionamento dos métodos de seleção automatizados propostos devem ser examinadas mais de perto. Disponibilizamos nosso código, dados e modelos em https://github.com/hamishivi/automated-instruction-selection.
English
Selecting high-quality training data from a larger pool is a crucial step when instruction-tuning language models, as carefully curated datasets often produce models that outperform those trained on much larger, noisier datasets. Automated data selection approaches for instruction-tuning are typically tested by selecting small datasets (roughly 10k samples) from small pools (100-200k samples). However, popular deployed instruction-tuned models often train on hundreds of thousands to millions of samples, subsampled from even larger data pools. We present a systematic study of how well data selection methods scale to these settings, selecting up to 2.5M samples from pools of up to 5.8M samples and evaluating across 7 diverse tasks. We show that many recently proposed methods fall short of random selection in this setting (while using more compute), and even decline in performance when given access to larger pools of data to select over. However, we find that a variant of representation-based data selection (RDS+), which uses weighted mean pooling of pretrained LM hidden states, consistently outperforms more complex methods across all settings tested -- all whilst being more compute-efficient. Our findings highlight that the scaling properties of proposed automated selection methods should be more closely examined. We release our code, data, and models at https://github.com/hamishivi/automated-instruction-selection.

Summary

AI-Generated Summary

PDF122March 4, 2025