Seleção Preditiva de Dados: Os Dados que Prevêem São os Dados que Ensinam
Predictive Data Selection: The Data That Predicts Is the Data That Teaches
March 2, 2025
Autores: Kashun Shum, Yuzhen Huang, Hongjian Zou, Ding Qi, Yixuan Liao, Xiaoxin Chen, Qian Liu, Junxian He
cs.AI
Resumo
O pré-treinamento de modelos de linguagem envolve o treinamento em extensos corpora, onde a qualidade dos dados desempenha um papel fundamental. Neste trabalho, buscamos estimar diretamente a contribuição dos dados durante o pré-treinamento e selecionar os dados de pré-treinamento de maneira eficiente. Especificamente, nos inspiramos em descobertas recentes que mostram que a eficiência de compressão (ou seja, a perda normalizada) de diversos modelos em determinados textos está fortemente correlacionada com seu desempenho em tarefas subsequentes, quando o domínio do texto está alinhado com o benchmark utilizado (Huang et al., 2024). Com base nessa observação, formulamos a hipótese de que os dados em que as perdas do modelo são preditivas de habilidades subsequentes também contribuem efetivamente para o aprendizado. Para aproveitar essa percepção, introduzimos a seleção de dados baseada na Força Preditiva dos dados (PreSelect), um método leve e eficiente de seleção de dados que requer o treinamento e a implantação apenas de um avaliador baseado em fastText. Por meio de experimentos abrangentes com modelos de 1B e 3B de parâmetros, demonstramos que modelos treinados com 30B de tokens selecionados com PreSelect superam o desempenho de uma linha de base padrão treinada com 300B de tokens, alcançando uma redução de 10x nos requisitos de computação. Além disso, o PreSelect supera significativamente outras linhas de base competitivas de seleção de dados, como DCLM e FineWeb-Edu, em uma escala de modelos de 3B treinados com 100B de tokens. Disponibilizamos publicamente nosso avaliador de seleção de dados treinado, juntamente com os conjuntos de dados curados, em https://github.com/hkust-nlp/PreSelect.
English
Language model pretraining involves training on extensive corpora, where data
quality plays a pivotal role. In this work, we aim to directly estimate the
contribution of data during pretraining and select pretraining data in an
efficient manner. Specifically, we draw inspiration from recent findings
showing that compression efficiency (i.e., the normalized loss) of diverse
models on certain text correlates strongly with their downstream performance,
when the text domain aligns with the downstream benchmark (Huang et al., 2024).
Building on this observation, we hypothesize that data on which model losses
are predictive of downstream abilities also contribute effectively to learning.
To leverage this insight, we introduce data selection based on data's
Predictive strength (Preselect), a lightweight and efficient data selection
method that requires training and deploying only a fastText-based scorer.
Through comprehensive experiments with 1B and 3B parameter models, we
demonstrate that models trained on 30B tokens selected with PreSelect surpasses
the performance of a vanilla baseline trained on 300B tokens, achieving a 10x
reduction in compute requirements. Furthermore, PreSelect significantly
outperforms other competitive data selection baselines, such as DCLM and
FineWeb-Edu on a scale of 3B models trained on 100B tokens. We open-source our
trained data selection scorer along with the curated datasets at
https://github.com/hkust-nlp/PreSelect.Summary
AI-Generated Summary