ChatPaper.aiChatPaper

DataComp-LM : À la recherche de la prochaine génération de jeux de données d'entraînement pour les modèles de langage

DataComp-LM: In search of the next generation of training sets for language models

June 17, 2024
Auteurs: Jeffrey Li, Alex Fang, Georgios Smyrnis, Maor Ivgi, Matt Jordan, Samir Gadre, Hritik Bansal, Etash Guha, Sedrick Keh, Kushal Arora, Saurabh Garg, Rui Xin, Niklas Muennighoff, Reinhard Heckel, Jean Mercat, Mayee Chen, Suchin Gururangan, Mitchell Wortsman, Alon Albalak, Yonatan Bitton, Marianna Nezhurina, Amro Abbas, Cheng-Yu Hsieh, Dhruba Ghosh, Josh Gardner, Maciej Kilian, Hanlin Zhang, Rulin Shao, Sarah Pratt, Sunny Sanyal, Gabriel Ilharco, Giannis Daras, Kalyani Marathe, Aaron Gokaslan, Jieyu Zhang, Khyathi Chandu, Thao Nguyen, Igor Vasiljevic, Sham Kakade, Shuran Song, Sujay Sanghavi, Fartash Faghri, Sewoong Oh, Luke Zettlemoyer, Kyle Lo, Alaaeldin El-Nouby, Hadi Pouransari, Alexander Toshev, Stephanie Wang, Dirk Groeneveld, Luca Soldani, Pang Wei Koh, Jenia Jitsev, Thomas Kollar, Alexandros G. Dimakis, Yair Carmon, Achal Dave, Ludwig Schmidt, Vaishaal Shankar
cs.AI

Résumé

Nous présentons DataComp for Language Models (DCLM), un banc d'essai pour des expériences contrôlées sur les ensembles de données visant à améliorer les modèles de langage. Dans le cadre de DCLM, nous fournissons un corpus standardisé de 240 000 milliards de tokens extraits de Common Crawl, des recettes de pré-entraînement efficaces basées sur le framework OpenLM, ainsi qu'une large suite de 53 évaluations en aval. Les participants au benchmark DCLM peuvent expérimenter des stratégies de curation de données telles que la déduplication, le filtrage et le mélange de données, à des échelles de modèles allant de 412 millions à 7 milliards de paramètres. Comme référence pour DCLM, nous menons des expériences approfondies et constatons que le filtrage basé sur des modèles est essentiel pour constituer un ensemble d'entraînement de haute qualité. Le jeu de données résultant, DCLM-Baseline, permet d'entraîner un modèle de langage de 7 milliards de paramètres à partir de zéro pour atteindre une précision de 64% en 5-shot sur MMLU avec 2 600 milliards de tokens d'entraînement. Comparé à MAP-Neo, l'état de l'art précédent en matière de modèles de langage à données ouvertes, DCLM-Baseline représente une amélioration de 6,6 points de pourcentage sur MMLU tout en étant entraîné avec 40% de calcul en moins. Notre modèle de référence est également comparable à Mistral-7B-v0.3 et Llama 3 8B sur MMLU (63% et 66%), et obtient des performances similaires en moyenne sur 53 tâches de compréhension du langage naturel tout en étant entraîné avec 6,6 fois moins de calcul que Llama 3 8B. Nos résultats soulignent l'importance de la conception des ensembles de données pour l'entraînement des modèles de langage et offrent un point de départ pour des recherches ultérieures sur la curation de données.
English
We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T tokens extracted from Common Crawl, effective pretraining recipes based on the OpenLM framework, and a broad suite of 53 downstream evaluations. Participants in the DCLM benchmark can experiment with data curation strategies such as deduplication, filtering, and data mixing at model scales ranging from 412M to 7B parameters. As a baseline for DCLM, we conduct extensive experiments and find that model-based filtering is key to assembling a high-quality training set. The resulting dataset, DCLM-Baseline enables training a 7B parameter language model from scratch to 64% 5-shot accuracy on MMLU with 2.6T training tokens. Compared to MAP-Neo, the previous state-of-the-art in open-data language models, DCLM-Baseline represents a 6.6 percentage point improvement on MMLU while being trained with 40% less compute. Our baseline model is also comparable to Mistral-7B-v0.3 and Llama 3 8B on MMLU (63% & 66%), and performs similarly on an average of 53 natural language understanding tasks while being trained with 6.6x less compute than Llama 3 8B. Our results highlight the importance of dataset design for training language models and offer a starting point for further research on data curation.

Summary

AI-Generated Summary

PDF534December 6, 2024