Predictieve Dataselectie: De Data Die Voorspelt, Is de Data Die Leert
Predictive Data Selection: The Data That Predicts Is the Data That Teaches
March 2, 2025
Auteurs: Kashun Shum, Yuzhen Huang, Hongjian Zou, Ding Qi, Yixuan Liao, Xiaoxin Chen, Qian Liu, Junxian He
cs.AI
Samenvatting
Taalmodelpretraining omvat training op uitgebreide corpora, waarbij de kwaliteit van de data een cruciale rol speelt. In dit werk streven we ernaar om de bijdrage van data tijdens de pretraining direct te schatten en de pretrainingdata op een efficiënte manier te selecteren. Specifiek putten we inspiratie uit recente bevindingen die aantonen dat de compressie-efficiëntie (d.w.z. het genormaliseerde verlies) van diverse modellen op bepaalde tekst sterk correleert met hun prestaties op downstream taken, wanneer het tekstdomein overeenkomt met de downstream benchmark (Huang et al., 2024). Op basis van deze observatie stellen we de hypothese dat data waarop modelverliezen voorspellend zijn voor downstream vaardigheden, ook effectief bijdragen aan het leerproces. Om dit inzicht te benutten, introduceren we dataselectie gebaseerd op de voorspellende kracht van data (PreSelect), een lichtgewicht en efficiënte methode voor dataselectie die alleen het trainen en inzetten van een fastText-gebaseerde scorer vereist. Door uitgebreide experimenten met modellen van 1B en 3B parameters, tonen we aan dat modellen getraind op 30B tokens geselecteerd met PreSelect de prestaties overtreffen van een standaard baseline getraind op 300B tokens, wat resulteert in een 10x reductie in rekenvereisten. Bovendien presteert PreSelect aanzienlijk beter dan andere competitieve dataselectie-baselines, zoals DCLM en FineWeb-Edu, op een schaal van 3B modellen getraind op 100B tokens. We maken onze getrainde dataselectie-scorer samen met de samengestelde datasets openbaar op https://github.com/hkust-nlp/PreSelect.
English
Language model pretraining involves training on extensive corpora, where data
quality plays a pivotal role. In this work, we aim to directly estimate the
contribution of data during pretraining and select pretraining data in an
efficient manner. Specifically, we draw inspiration from recent findings
showing that compression efficiency (i.e., the normalized loss) of diverse
models on certain text correlates strongly with their downstream performance,
when the text domain aligns with the downstream benchmark (Huang et al., 2024).
Building on this observation, we hypothesize that data on which model losses
are predictive of downstream abilities also contribute effectively to learning.
To leverage this insight, we introduce data selection based on data's
Predictive strength (Preselect), a lightweight and efficient data selection
method that requires training and deploying only a fastText-based scorer.
Through comprehensive experiments with 1B and 3B parameter models, we
demonstrate that models trained on 30B tokens selected with PreSelect surpasses
the performance of a vanilla baseline trained on 300B tokens, achieving a 10x
reduction in compute requirements. Furthermore, PreSelect significantly
outperforms other competitive data selection baselines, such as DCLM and
FineWeb-Edu on a scale of 3B models trained on 100B tokens. We open-source our
trained data selection scorer along with the curated datasets at
https://github.com/hkust-nlp/PreSelect.Summary
AI-Generated Summary