ChatPaper.aiChatPaper

DataComp-LM: En busca de la próxima generación de conjuntos de entrenamiento para modelos de lenguaje

DataComp-LM: In search of the next generation of training sets for language models

June 17, 2024
Autores: Jeffrey Li, Alex Fang, Georgios Smyrnis, Maor Ivgi, Matt Jordan, Samir Gadre, Hritik Bansal, Etash Guha, Sedrick Keh, Kushal Arora, Saurabh Garg, Rui Xin, Niklas Muennighoff, Reinhard Heckel, Jean Mercat, Mayee Chen, Suchin Gururangan, Mitchell Wortsman, Alon Albalak, Yonatan Bitton, Marianna Nezhurina, Amro Abbas, Cheng-Yu Hsieh, Dhruba Ghosh, Josh Gardner, Maciej Kilian, Hanlin Zhang, Rulin Shao, Sarah Pratt, Sunny Sanyal, Gabriel Ilharco, Giannis Daras, Kalyani Marathe, Aaron Gokaslan, Jieyu Zhang, Khyathi Chandu, Thao Nguyen, Igor Vasiljevic, Sham Kakade, Shuran Song, Sujay Sanghavi, Fartash Faghri, Sewoong Oh, Luke Zettlemoyer, Kyle Lo, Alaaeldin El-Nouby, Hadi Pouransari, Alexander Toshev, Stephanie Wang, Dirk Groeneveld, Luca Soldani, Pang Wei Koh, Jenia Jitsev, Thomas Kollar, Alexandros G. Dimakis, Yair Carmon, Achal Dave, Ludwig Schmidt, Vaishaal Shankar
cs.AI

Resumen

Presentamos DataComp for Language Models (DCLM), un banco de pruebas para experimentos controlados con conjuntos de datos con el objetivo de mejorar los modelos de lenguaje. Como parte de DCLM, proporcionamos un corpus estandarizado de 240T tokens extraídos de Common Crawl, recetas efectivas de preentrenamiento basadas en el marco OpenLM y una amplia suite de 53 evaluaciones posteriores. Los participantes en el benchmark DCLM pueden experimentar con estrategias de curación de datos, como deduplicación, filtrado y mezcla de datos, en escalas de modelos que van desde 412M hasta 7B parámetros. Como línea base para DCLM, realizamos extensos experimentos y encontramos que el filtrado basado en modelos es clave para ensamblar un conjunto de entrenamiento de alta calidad. El conjunto de datos resultante, DCLM-Baseline, permite entrenar un modelo de lenguaje de 7B parámetros desde cero hasta un 64% de precisión en 5-shot en MMLU con 2.6T tokens de entrenamiento. En comparación con MAP-Neo, el anterior estado del arte en modelos de lenguaje de datos abiertos, DCLM-Baseline representa una mejora de 6.6 puntos porcentuales en MMLU mientras se entrena con un 40% menos de cómputo. Nuestro modelo base también es comparable a Mistral-7B-v0.3 y Llama 3 8B en MMLU (63% y 66%), y tiene un rendimiento similar en un promedio de 53 tareas de comprensión del lenguaje natural mientras se entrena con 6.6 veces menos cómputo que Llama 3 8B. Nuestros resultados destacan la importancia del diseño de conjuntos de datos para el entrenamiento de modelos de lenguaje y ofrecen un punto de partida para futuras investigaciones sobre la curación de datos.
English
We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T tokens extracted from Common Crawl, effective pretraining recipes based on the OpenLM framework, and a broad suite of 53 downstream evaluations. Participants in the DCLM benchmark can experiment with data curation strategies such as deduplication, filtering, and data mixing at model scales ranging from 412M to 7B parameters. As a baseline for DCLM, we conduct extensive experiments and find that model-based filtering is key to assembling a high-quality training set. The resulting dataset, DCLM-Baseline enables training a 7B parameter language model from scratch to 64% 5-shot accuracy on MMLU with 2.6T training tokens. Compared to MAP-Neo, the previous state-of-the-art in open-data language models, DCLM-Baseline represents a 6.6 percentage point improvement on MMLU while being trained with 40% less compute. Our baseline model is also comparable to Mistral-7B-v0.3 and Llama 3 8B on MMLU (63% & 66%), and performs similarly on an average of 53 natural language understanding tasks while being trained with 6.6x less compute than Llama 3 8B. Our results highlight the importance of dataset design for training language models and offer a starting point for further research on data curation.
PDF544December 6, 2024