Escalonando Modelos de Linguagem Baseados em Recuperação com um Armazenamento de Dados de Trilhões de Tokens
Scaling Retrieval-Based Language Models with a Trillion-Token Datastore
July 9, 2024
Autores: Rulin Shao, Jacqueline He, Akari Asai, Weijia Shi, Tim Dettmers, Sewon Min, Luke Zettlemoyer, Pang Wei Koh
cs.AI
Resumo
As leis de escala em relação à quantidade de dados de treinamento e ao número de parâmetros nos permitem prever as compensações de custo-benefício da pré-treinamento de modelos de linguagem (LMs) em diferentes configurações. Neste artigo, consideramos outra dimensão de escala: a quantidade de dados disponíveis no momento da inferência. Especificamente, descobrimos que aumentar o tamanho do repositório de dados usado por um LM baseado em recuperação melhora de forma monótona a modelagem de linguagem e várias tarefas subsequentes sem saturação óbvia, de modo que um modelo menor, complementado com um grande repositório de dados, supera um modelo apenas LM maior em tarefas intensivas em conhecimento. Traçando curvas de escala computacionalmente ótimas com tamanhos variados de repositório de dados, modelo e dados de pré-treinamento, mostramos que o uso de repositórios de dados maiores pode melhorar significativamente o desempenho do modelo para o mesmo orçamento de computação de treinamento. Realizamos nosso estudo construindo um repositório de dados de 1,4 trilhão de tokens chamado MassiveDS, que é o maior e mais diversificado repositório de dados de código aberto para LMs baseados em recuperação até o momento, e projetando um pipeline eficiente para estudar a escala do repositório de dados de forma computacionalmente acessível. Por fim, analisamos o efeito da melhoria do recuperador, da filtragem de qualidade do repositório de dados e de outras escolhas de design em nossas tendências de escala observadas. No geral, nossos resultados mostram que o tamanho do repositório de dados deve ser considerado como parte integrante das compensações de eficiência e desempenho do LM. Para facilitar pesquisas futuras, disponibilizamos nosso repositório de dados e código-fonte em https://github.com/RulinShao/retrieval-scaling.
English
Scaling laws with respect to the amount of training data and the number of
parameters allow us to predict the cost-benefit trade-offs of pretraining
language models (LMs) in different configurations. In this paper, we consider
another dimension of scaling: the amount of data available at inference time.
Specifically, we find that increasing the size of the datastore used by a
retrieval-based LM monotonically improves language modeling and several
downstream tasks without obvious saturation, such that a smaller model
augmented with a large datastore outperforms a larger LM-only model on
knowledge-intensive tasks. By plotting compute-optimal scaling curves with
varied datastore, model, and pretraining data sizes, we show that using larger
datastores can significantly improve model performance for the same training
compute budget. We carry out our study by constructing a 1.4 trillion-token
datastore named MassiveDS, which is the largest and the most diverse
open-sourced datastore for retrieval-based LMs to date, and designing an
efficient pipeline for studying datastore scaling in a computationally
accessible manner. Finally, we analyze the effect of improving the retriever,
datastore quality filtering, and other design choices on our observed scaling
trends. Overall, our results show that datastore size should be considered as
an integral part of LM efficiency and performance trade-offs. To facilitate
future research, we open-source our datastore and code at
https://github.com/RulinShao/retrieval-scaling.