ChatPaper.aiChatPaper

Los Conjuntos de Datos FineWeb: Filtrando la Web para Obtener los Mejores Datos de Texto a Escala

The FineWeb Datasets: Decanting the Web for the Finest Text Data at Scale

June 25, 2024
Autores: Guilherme Penedo, Hynek Kydlíček, Loubna Ben allal, Anton Lozhkov, Margaret Mitchell, Colin Raffel, Leandro Von Werra, Thomas Wolf
cs.AI

Resumen

El rendimiento de un modelo de lenguaje grande (LLM, por sus siglas en inglés) depende en gran medida de la calidad y el tamaño de su conjunto de datos de preentrenamiento. Sin embargo, los conjuntos de datos de preentrenamiento para LLMs de última generación y de código abierto, como Llama 3 y Mixtral, no están disponibles públicamente y se sabe muy poco sobre cómo fueron creados. En este trabajo, presentamos FineWeb, un conjunto de datos de 15 billones de tokens derivado de 96 instantáneas de Common Crawl que produce LLMs con un mejor rendimiento que otros conjuntos de datos de preentrenamiento abiertos. Para avanzar en la comprensión de cómo seleccionar mejor conjuntos de datos de preentrenamiento de alta calidad, documentamos y analizamos detalladamente todas las decisiones de diseño utilizadas en FineWeb, incluyendo investigaciones exhaustivas sobre estrategias de deduplicación y filtrado. Además, presentamos FineWeb-Edu, una colección de 1.3 billones de tokens de texto educativo filtrado de FineWeb. Los LLMs preentrenados en FineWeb-Edu muestran un rendimiento notablemente mejor en benchmarks intensivos en conocimiento y razonamiento, como MMLU y ARC. Junto con nuestros conjuntos de datos, publicamos nuestro código de curación de datos y todos los modelos entrenados durante nuestros experimentos de análisis.
English
The performance of a large language model (LLM) depends heavily on the quality and size of its pretraining dataset. However, the pretraining datasets for state-of-the-art open LLMs like Llama 3 and Mixtral are not publicly available and very little is known about how they were created. In this work, we introduce FineWeb, a 15-trillion token dataset derived from 96 Common Crawl snapshots that produces better-performing LLMs than other open pretraining datasets. To advance the understanding of how best to curate high-quality pretraining datasets, we carefully document and ablate all of the design choices used in FineWeb, including in-depth investigations of deduplication and filtering strategies. In addition, we introduce FineWeb-Edu, a 1.3-trillion token collection of educational text filtered from FineWeb. LLMs pretrained on FineWeb-Edu exhibit dramatically better performance on knowledge- and reasoning-intensive benchmarks like MMLU and ARC. Along with our datasets, we publicly release our data curation codebase and all of the models trained during our ablation experiments.

Summary

AI-Generated Summary

PDF975November 29, 2024