ChatPaper.aiChatPaper

I dataset FineWeb: Filtrare il web per ottenere i migliori dati testuali su larga scala

The FineWeb Datasets: Decanting the Web for the Finest Text Data at Scale

June 25, 2024
Autori: Guilherme Penedo, Hynek Kydlíček, Loubna Ben allal, Anton Lozhkov, Margaret Mitchell, Colin Raffel, Leandro Von Werra, Thomas Wolf
cs.AI

Abstract

Le prestazioni di un modello linguistico su larga scala (LLM) dipendono fortemente dalla qualità e dalla dimensione del suo dataset di pre-addestramento. Tuttavia, i dataset di pre-addestramento per LLM open-source all'avanguardia come Llama 3 e Mixtral non sono pubblicamente disponibili, e si sa molto poco su come siano stati creati. In questo lavoro, presentiamo FineWeb, un dataset di 15 trilioni di token derivato da 96 snapshot di Common Crawl, che produce LLM con prestazioni migliori rispetto ad altri dataset di pre-addestramento open. Per approfondire la comprensione su come curare al meglio dataset di pre-addestramento di alta qualità, documentiamo e analizziamo attentamente tutte le scelte progettuali utilizzate in FineWeb, inclusi studi approfonditi sulle strategie di deduplicazione e filtraggio. Inoltre, introduciamo FineWeb-Edu, una raccolta di 1,3 trilioni di token di testo educativo filtrato da FineWeb. Gli LLM pre-addestrati su FineWeb-Edu mostrano prestazioni significativamente migliori su benchmark intensivi di conoscenza e ragionamento come MMLU e ARC. Insieme ai nostri dataset, rendiamo pubblicamente disponibile il nostro codice di curatela dei dati e tutti i modelli addestrati durante i nostri esperimenti di ablazione.
English
The performance of a large language model (LLM) depends heavily on the quality and size of its pretraining dataset. However, the pretraining datasets for state-of-the-art open LLMs like Llama 3 and Mixtral are not publicly available and very little is known about how they were created. In this work, we introduce FineWeb, a 15-trillion token dataset derived from 96 Common Crawl snapshots that produces better-performing LLMs than other open pretraining datasets. To advance the understanding of how best to curate high-quality pretraining datasets, we carefully document and ablate all of the design choices used in FineWeb, including in-depth investigations of deduplication and filtering strategies. In addition, we introduce FineWeb-Edu, a 1.3-trillion token collection of educational text filtered from FineWeb. LLMs pretrained on FineWeb-Edu exhibit dramatically better performance on knowledge- and reasoning-intensive benchmarks like MMLU and ARC. Along with our datasets, we publicly release our data curation codebase and all of the models trained during our ablation experiments.
PDF985December 14, 2025