ChatPaper.aiChatPaper

DataComp-LM: Em busca da próxima geração de conjuntos de dados de treinamento para modelos de linguagem

DataComp-LM: In search of the next generation of training sets for language models

June 17, 2024
Autores: Jeffrey Li, Alex Fang, Georgios Smyrnis, Maor Ivgi, Matt Jordan, Samir Gadre, Hritik Bansal, Etash Guha, Sedrick Keh, Kushal Arora, Saurabh Garg, Rui Xin, Niklas Muennighoff, Reinhard Heckel, Jean Mercat, Mayee Chen, Suchin Gururangan, Mitchell Wortsman, Alon Albalak, Yonatan Bitton, Marianna Nezhurina, Amro Abbas, Cheng-Yu Hsieh, Dhruba Ghosh, Josh Gardner, Maciej Kilian, Hanlin Zhang, Rulin Shao, Sarah Pratt, Sunny Sanyal, Gabriel Ilharco, Giannis Daras, Kalyani Marathe, Aaron Gokaslan, Jieyu Zhang, Khyathi Chandu, Thao Nguyen, Igor Vasiljevic, Sham Kakade, Shuran Song, Sujay Sanghavi, Fartash Faghri, Sewoong Oh, Luke Zettlemoyer, Kyle Lo, Alaaeldin El-Nouby, Hadi Pouransari, Alexander Toshev, Stephanie Wang, Dirk Groeneveld, Luca Soldani, Pang Wei Koh, Jenia Jitsev, Thomas Kollar, Alexandros G. Dimakis, Yair Carmon, Achal Dave, Ludwig Schmidt, Vaishaal Shankar
cs.AI

Resumo

Apresentamos o DataComp for Language Models (DCLM), um ambiente de testes para experimentos controlados com conjuntos de dados com o objetivo de melhorar modelos de linguagem. Como parte do DCLM, fornecemos um corpus padronizado de 240 trilhões de tokens extraídos do Common Crawl, receitas eficazes de pré-treinamento baseadas na estrutura OpenLM e um amplo conjunto de 53 avaliações de tarefas downstream. Os participantes do benchmark DCLM podem experimentar estratégias de curadoria de dados, como deduplicação, filtragem e mistura de dados, em escalas de modelos que variam de 412 milhões a 7 bilhões de parâmetros. Como linha de base para o DCLM, realizamos extensos experimentos e descobrimos que a filtragem baseada em modelo é fundamental para montar um conjunto de treinamento de alta qualidade. O conjunto de dados resultante, DCLM-Baseline, permite treinar um modelo de linguagem de 7 bilhões de parâmetros do zero, alcançando 64% de acurácia em 5-shot no MMLU com 2,6 trilhões de tokens de treinamento. Em comparação com o MAP-Neo, o estado da arte anterior em modelos de linguagem de dados abertos, o DCLM-Baseline representa uma melhoria de 6,6 pontos percentuais no MMLU, enquanto é treinado com 40% menos recursos computacionais. Nosso modelo de base também é comparável ao Mistral-7B-v0.3 e ao Llama 3 8B no MMLU (63% e 66%) e tem desempenho semelhante na média de 53 tarefas de compreensão de linguagem natural, enquanto é treinado com 6,6 vezes menos recursos computacionais do que o Llama 3 8B. Nossos resultados destacam a importância do design de conjuntos de dados para o treinamento de modelos de linguagem e oferecem um ponto de partida para pesquisas adicionais sobre curadoria de dados.
English
We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T tokens extracted from Common Crawl, effective pretraining recipes based on the OpenLM framework, and a broad suite of 53 downstream evaluations. Participants in the DCLM benchmark can experiment with data curation strategies such as deduplication, filtering, and data mixing at model scales ranging from 412M to 7B parameters. As a baseline for DCLM, we conduct extensive experiments and find that model-based filtering is key to assembling a high-quality training set. The resulting dataset, DCLM-Baseline enables training a 7B parameter language model from scratch to 64% 5-shot accuracy on MMLU with 2.6T training tokens. Compared to MAP-Neo, the previous state-of-the-art in open-data language models, DCLM-Baseline represents a 6.6 percentage point improvement on MMLU while being trained with 40% less compute. Our baseline model is also comparable to Mistral-7B-v0.3 and Llama 3 8B on MMLU (63% & 66%), and performs similarly on an average of 53 natural language understanding tasks while being trained with 6.6x less compute than Llama 3 8B. Our results highlight the importance of dataset design for training language models and offer a starting point for further research on data curation.
PDF544December 6, 2024