ChatPaper.aiChatPaper

DataComp-LM: Alla ricerca della prossima generazione di dataset di addestramento per modelli linguistici

DataComp-LM: In search of the next generation of training sets for language models

June 17, 2024
Autori: Jeffrey Li, Alex Fang, Georgios Smyrnis, Maor Ivgi, Matt Jordan, Samir Gadre, Hritik Bansal, Etash Guha, Sedrick Keh, Kushal Arora, Saurabh Garg, Rui Xin, Niklas Muennighoff, Reinhard Heckel, Jean Mercat, Mayee Chen, Suchin Gururangan, Mitchell Wortsman, Alon Albalak, Yonatan Bitton, Marianna Nezhurina, Amro Abbas, Cheng-Yu Hsieh, Dhruba Ghosh, Josh Gardner, Maciej Kilian, Hanlin Zhang, Rulin Shao, Sarah Pratt, Sunny Sanyal, Gabriel Ilharco, Giannis Daras, Kalyani Marathe, Aaron Gokaslan, Jieyu Zhang, Khyathi Chandu, Thao Nguyen, Igor Vasiljevic, Sham Kakade, Shuran Song, Sujay Sanghavi, Fartash Faghri, Sewoong Oh, Luke Zettlemoyer, Kyle Lo, Alaaeldin El-Nouby, Hadi Pouransari, Alexander Toshev, Stephanie Wang, Dirk Groeneveld, Luca Soldani, Pang Wei Koh, Jenia Jitsev, Thomas Kollar, Alexandros G. Dimakis, Yair Carmon, Achal Dave, Ludwig Schmidt, Vaishaal Shankar
cs.AI

Abstract

Introduciamo DataComp for Language Models (DCLM), un banco di prova per esperimenti controllati su dataset con l'obiettivo di migliorare i modelli linguistici. Come parte di DCLM, forniamo un corpus standardizzato di 240T di token estratti da Common Crawl, ricette efficaci per il pre-addestramento basate sul framework OpenLM e una vasta suite di 53 valutazioni downstream. I partecipanti al benchmark DCLM possono sperimentare strategie di cura dei dati come deduplicazione, filtraggio e miscelazione dei dati su scale di modelli che vanno da 412M a 7B di parametri. Come baseline per DCLM, conduciamo ampi esperimenti e scopriamo che il filtraggio basato su modelli è fondamentale per assemblare un insieme di addestramento di alta qualità. Il dataset risultante, DCLM-Baseline, consente di addestrare un modello linguistico da 7B di parametri da zero fino a un'accuratezza del 64% in 5-shot su MMLU con 2.6T di token di addestramento. Rispetto a MAP-Neo, il precedente stato dell'arte nei modelli linguistici a dati aperti, DCLM-Baseline rappresenta un miglioramento di 6.6 punti percentuali su MMLU pur essendo addestrato con il 40% in meno di risorse computazionali. Il nostro modello baseline è anche paragonabile a Mistral-7B-v0.3 e Llama 3 8B su MMLU (63% e 66%) e performa in modo simile su una media di 53 task di comprensione del linguaggio naturale pur essendo addestrato con 6.6 volte meno risorse computazionali rispetto a Llama 3 8B. I nostri risultati evidenziano l'importanza della progettazione dei dataset per l'addestramento dei modelli linguistici e offrono un punto di partenza per ulteriori ricerche sulla cura dei dati.
English
We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T tokens extracted from Common Crawl, effective pretraining recipes based on the OpenLM framework, and a broad suite of 53 downstream evaluations. Participants in the DCLM benchmark can experiment with data curation strategies such as deduplication, filtering, and data mixing at model scales ranging from 412M to 7B parameters. As a baseline for DCLM, we conduct extensive experiments and find that model-based filtering is key to assembling a high-quality training set. The resulting dataset, DCLM-Baseline enables training a 7B parameter language model from scratch to 64% 5-shot accuracy on MMLU with 2.6T training tokens. Compared to MAP-Neo, the previous state-of-the-art in open-data language models, DCLM-Baseline represents a 6.6 percentage point improvement on MMLU while being trained with 40% less compute. Our baseline model is also comparable to Mistral-7B-v0.3 and Llama 3 8B on MMLU (63% & 66%), and performs similarly on an average of 53 natural language understanding tasks while being trained with 6.6x less compute than Llama 3 8B. Our results highlight the importance of dataset design for training language models and offer a starting point for further research on data curation.
PDF554February 8, 2026