Escalando modelos de lenguaje basados en recuperación con un almacén de datos de un billón de tokens.
Scaling Retrieval-Based Language Models with a Trillion-Token Datastore
July 9, 2024
Autores: Rulin Shao, Jacqueline He, Akari Asai, Weijia Shi, Tim Dettmers, Sewon Min, Luke Zettlemoyer, Pang Wei Koh
cs.AI
Resumen
Las leyes de escala con respecto a la cantidad de datos de entrenamiento y el número de parámetros nos permiten predecir los compromisos costo-beneficio de preentrenar modelos de lenguaje (LMs) en diferentes configuraciones. En este documento, consideramos otra dimensión de escala: la cantidad de datos disponibles en el momento de inferencia. Específicamente, encontramos que aumentar el tamaño del almacén de datos utilizado por un LM basado en recuperación mejora monótonamente la modelización del lenguaje y varias tareas posteriores sin una saturación obvia, de modo que un modelo más pequeño, complementado con un gran almacén de datos, supera a un modelo LM solo más grande en tareas intensivas en conocimiento. Al trazar curvas de escala óptima de cálculo con tamaños de almacén de datos, modelo y preentrenamiento variables, mostramos que el uso de almacenes de datos más grandes puede mejorar significativamente el rendimiento del modelo para el mismo presupuesto de cálculo de entrenamiento. Realizamos nuestro estudio construyendo un almacén de datos de 1,4 billones de tokens llamado MassiveDS, que es el almacén de datos de código abierto más grande y diverso hasta la fecha para LMs basados en recuperación, y diseñando un pipeline eficiente para estudiar la escala del almacén de datos de manera computacionalmente accesible. Finalmente, analizamos el efecto de mejorar el recuperador, el filtrado de calidad del almacén de datos y otras elecciones de diseño en nuestras tendencias de escala observadas. En general, nuestros resultados muestran que el tamaño del almacén de datos debe considerarse como una parte integral de los compromisos de eficiencia y rendimiento de LM. Para facilitar la investigación futura, compartimos nuestro almacén de datos y código de código abierto en https://github.com/RulinShao/retrieval-scaling.
English
Scaling laws with respect to the amount of training data and the number of
parameters allow us to predict the cost-benefit trade-offs of pretraining
language models (LMs) in different configurations. In this paper, we consider
another dimension of scaling: the amount of data available at inference time.
Specifically, we find that increasing the size of the datastore used by a
retrieval-based LM monotonically improves language modeling and several
downstream tasks without obvious saturation, such that a smaller model
augmented with a large datastore outperforms a larger LM-only model on
knowledge-intensive tasks. By plotting compute-optimal scaling curves with
varied datastore, model, and pretraining data sizes, we show that using larger
datastores can significantly improve model performance for the same training
compute budget. We carry out our study by constructing a 1.4 trillion-token
datastore named MassiveDS, which is the largest and the most diverse
open-sourced datastore for retrieval-based LMs to date, and designing an
efficient pipeline for studying datastore scaling in a computationally
accessible manner. Finally, we analyze the effect of improving the retriever,
datastore quality filtering, and other design choices on our observed scaling
trends. Overall, our results show that datastore size should be considered as
an integral part of LM efficiency and performance trade-offs. To facilitate
future research, we open-source our datastore and code at
https://github.com/RulinShao/retrieval-scaling.Summary
AI-Generated Summary