ChatPaper.aiChatPaper

Selección Predictiva de Datos: Los Datos que Predicen son los Datos que Enseñan

Predictive Data Selection: The Data That Predicts Is the Data That Teaches

March 2, 2025
Autores: Kashun Shum, Yuzhen Huang, Hongjian Zou, Ding Qi, Yixuan Liao, Xiaoxin Chen, Qian Liu, Junxian He
cs.AI

Resumen

El preentrenamiento de modelos de lenguaje implica entrenamiento sobre corpus extensos, donde la calidad de los datos juega un papel fundamental. En este trabajo, buscamos estimar directamente la contribución de los datos durante el preentrenamiento y seleccionar los datos de preentrenamiento de manera eficiente. Específicamente, nos inspiramos en hallazgos recientes que muestran que la eficiencia de compresión (es decir, la pérdida normalizada) de diversos modelos en ciertos textos se correlaciona fuertemente con su rendimiento en tareas posteriores, cuando el dominio del texto coincide con el benchmark de evaluación (Huang et al., 2024). Basándonos en esta observación, planteamos la hipótesis de que los datos en los que las pérdidas del modelo son predictivas de sus capacidades posteriores también contribuyen efectivamente al aprendizaje. Para aprovechar esta idea, introducimos la selección de datos basada en la Fuerza Predictiva de los datos (PreSelect), un método ligero y eficiente de selección de datos que requiere entrenar y desplegar únicamente un evaluador basado en fastText. A través de experimentos exhaustivos con modelos de 1B y 3B parámetros, demostramos que los modelos entrenados con 30B tokens seleccionados mediante PreSelect superan el rendimiento de una línea base estándar entrenada con 300B tokens, logrando una reducción de 10x en los requisitos de cómputo. Además, PreSelect supera significativamente a otros métodos competitivos de selección de datos, como DCLM y FineWeb-Edu, en modelos de 3B parámetros entrenados con 100B tokens. Hemos liberado nuestro evaluador de selección de datos entrenado junto con los conjuntos de datos curados en https://github.com/hkust-nlp/PreSelect.
English
Language model pretraining involves training on extensive corpora, where data quality plays a pivotal role. In this work, we aim to directly estimate the contribution of data during pretraining and select pretraining data in an efficient manner. Specifically, we draw inspiration from recent findings showing that compression efficiency (i.e., the normalized loss) of diverse models on certain text correlates strongly with their downstream performance, when the text domain aligns with the downstream benchmark (Huang et al., 2024). Building on this observation, we hypothesize that data on which model losses are predictive of downstream abilities also contribute effectively to learning. To leverage this insight, we introduce data selection based on data's Predictive strength (Preselect), a lightweight and efficient data selection method that requires training and deploying only a fastText-based scorer. Through comprehensive experiments with 1B and 3B parameter models, we demonstrate that models trained on 30B tokens selected with PreSelect surpasses the performance of a vanilla baseline trained on 300B tokens, achieving a 10x reduction in compute requirements. Furthermore, PreSelect significantly outperforms other competitive data selection baselines, such as DCLM and FineWeb-Edu on a scale of 3B models trained on 100B tokens. We open-source our trained data selection scorer along with the curated datasets at https://github.com/hkust-nlp/PreSelect.

Summary

AI-Generated Summary

PDF572March 4, 2025