ChatPaper.aiChatPaper

Het schalen van op retrieval gebaseerde taalmodelen met een datastore van een biljoen tokens

Scaling Retrieval-Based Language Models with a Trillion-Token Datastore

July 9, 2024
Auteurs: Rulin Shao, Jacqueline He, Akari Asai, Weijia Shi, Tim Dettmers, Sewon Min, Luke Zettlemoyer, Pang Wei Koh
cs.AI

Samenvatting

Schaalwetten met betrekking tot de hoeveelheid trainingsdata en het aantal parameters stellen ons in staat om de kosten-batenafwegingen van het vooraf trainen van taalmmodellen (LMs) in verschillende configuraties te voorspellen. In dit artikel beschouwen we een andere dimensie van schaling: de hoeveelheid data die beschikbaar is tijdens de inferentiefase. Specifiek vinden we dat het vergroten van de omvang van de datastore die wordt gebruikt door een retrieval-gebaseerd LM monotoon de taalmodeling en verschillende downstream taken verbetert zonder duidelijke verzadiging, zodat een kleiner model aangevuld met een grote datastore een groter LM-only model overtreft op kennisintensieve taken. Door compute-optimale schaalcurves te plotten met variërende datastore-, model- en vooraf getrainde data-omvang, laten we zien dat het gebruik van grotere datastores de modelprestaties aanzienlijk kan verbeteren voor hetzelfde trainingscompute-budget. We voeren onze studie uit door het construeren van een datastore van 1,4 biljoen tokens genaamd MassiveDS, wat de grootste en meest diverse open-source datastore is voor retrieval-gebaseerde LMs tot nu toe, en het ontwerpen van een efficiënte pipeline voor het bestuderen van datastore-schaling op een computationeel toegankelijke manier. Tot slot analyseren we het effect van het verbeteren van de retriever, datastore-kwaliteitsfiltering en andere ontwerpkeuzes op onze waargenomen schaaltrends. Over het algemeen laten onze resultaten zien dat de omvang van de datastore moet worden beschouwd als een integraal onderdeel van de efficiëntie en prestatieafwegingen van LMs. Om toekomstig onderzoek te vergemakkelijken, openbaren we onze datastore en code op https://github.com/RulinShao/retrieval-scaling.
English
Scaling laws with respect to the amount of training data and the number of parameters allow us to predict the cost-benefit trade-offs of pretraining language models (LMs) in different configurations. In this paper, we consider another dimension of scaling: the amount of data available at inference time. Specifically, we find that increasing the size of the datastore used by a retrieval-based LM monotonically improves language modeling and several downstream tasks without obvious saturation, such that a smaller model augmented with a large datastore outperforms a larger LM-only model on knowledge-intensive tasks. By plotting compute-optimal scaling curves with varied datastore, model, and pretraining data sizes, we show that using larger datastores can significantly improve model performance for the same training compute budget. We carry out our study by constructing a 1.4 trillion-token datastore named MassiveDS, which is the largest and the most diverse open-sourced datastore for retrieval-based LMs to date, and designing an efficient pipeline for studying datastore scaling in a computationally accessible manner. Finally, we analyze the effect of improving the retriever, datastore quality filtering, and other design choices on our observed scaling trends. Overall, our results show that datastore size should be considered as an integral part of LM efficiency and performance trade-offs. To facilitate future research, we open-source our datastore and code at https://github.com/RulinShao/retrieval-scaling.
PDF313February 8, 2026