ChatPaper.aiChatPaper

Sélection prédictive des données : Les données qui prédisent sont les données qui enseignent

Predictive Data Selection: The Data That Predicts Is the Data That Teaches

March 2, 2025
Auteurs: Kashun Shum, Yuzhen Huang, Hongjian Zou, Ding Qi, Yixuan Liao, Xiaoxin Chen, Qian Liu, Junxian He
cs.AI

Résumé

Le pré-entraînement des modèles de langage implique un apprentissage sur des corpus étendus, où la qualité des données joue un rôle crucial. Dans ce travail, nous cherchons à estimer directement la contribution des données pendant le pré-entraînement et à sélectionner ces données de manière efficace. Plus précisément, nous nous inspirons de récents résultats montrant que l'efficacité de compression (c'est-à-dire la perte normalisée) de divers modèles sur certains textes est fortement corrélée à leurs performances en aval, lorsque le domaine du texte correspond au benchmark cible (Huang et al., 2024). Sur la base de cette observation, nous émettons l'hypothèse que les données pour lesquelles les pertes du modèle sont prédictives des capacités en aval contribuent également de manière efficace à l'apprentissage. Pour exploiter cette idée, nous introduisons une sélection de données basée sur la force prédictive des données (PreSelect), une méthode légère et efficace de sélection de données qui nécessite uniquement l'entraînement et le déploiement d'un scoreur basé sur fastText. À travers des expériences approfondies avec des modèles de 1 milliard et 3 milliards de paramètres, nous démontrons que les modèles entraînés sur 30 milliards de tokens sélectionnés avec PreSelect surpassent les performances d'un modèle de référence entraîné sur 300 milliards de tokens, réduisant ainsi les besoins en calcul par un facteur de 10. De plus, PreSelect surpasse significativement d'autres méthodes concurrentes de sélection de données, telles que DCLM et FineWeb-Edu, à l'échelle de modèles de 3 milliards de paramètres entraînés sur 100 milliards de tokens. Nous mettons à disposition en open source notre scoreur de sélection de données entraîné ainsi que les ensembles de données curés à l'adresse suivante : https://github.com/hkust-nlp/PreSelect.
English
Language model pretraining involves training on extensive corpora, where data quality plays a pivotal role. In this work, we aim to directly estimate the contribution of data during pretraining and select pretraining data in an efficient manner. Specifically, we draw inspiration from recent findings showing that compression efficiency (i.e., the normalized loss) of diverse models on certain text correlates strongly with their downstream performance, when the text domain aligns with the downstream benchmark (Huang et al., 2024). Building on this observation, we hypothesize that data on which model losses are predictive of downstream abilities also contribute effectively to learning. To leverage this insight, we introduce data selection based on data's Predictive strength (Preselect), a lightweight and efficient data selection method that requires training and deploying only a fastText-based scorer. Through comprehensive experiments with 1B and 3B parameter models, we demonstrate that models trained on 30B tokens selected with PreSelect surpasses the performance of a vanilla baseline trained on 300B tokens, achieving a 10x reduction in compute requirements. Furthermore, PreSelect significantly outperforms other competitive data selection baselines, such as DCLM and FineWeb-Edu on a scale of 3B models trained on 100B tokens. We open-source our trained data selection scorer along with the curated datasets at https://github.com/hkust-nlp/PreSelect.

Summary

AI-Generated Summary

PDF572March 4, 2025