Масштабирование моделей на основе извлечения информации с хранилищем данных на триллион меток
Scaling Retrieval-Based Language Models with a Trillion-Token Datastore
July 9, 2024
Авторы: Rulin Shao, Jacqueline He, Akari Asai, Weijia Shi, Tim Dettmers, Sewon Min, Luke Zettlemoyer, Pang Wei Koh
cs.AI
Аннотация
Законы масштабирования относительно объема обучающих данных и количества параметров позволяют нам предсказывать компромиссы между затратами и выгодой от предварительного обучения языковых моделей (ЯМ) в различных конфигурациях. В данной статье мы рассматриваем еще одно измерение масштабирования: объем данных, доступных в момент вывода. Конкретно, мы обнаружили, что увеличение размера хранилища данных, используемого моделью на основе поиска, монотонно улучшает языковое моделирование и несколько последующих задач без явной насыщенности, так что более маленькая модель, дополненная большим хранилищем данных, превосходит более крупную модель только на языковых задачах, требующих знаний. Построив кривые масштабирования, оптимальные с точки зрения вычислений, с различными размерами хранилища данных, модели и объемами предварительных данных, мы показываем, что использование более крупных хранилищ данных может значительно улучшить производительность модели при том же бюджете обучения. Мы проводим наше исследование, создавая хранилище данных MassiveDS объемом 1,4 триллиона токенов, которое является к настоящему времени самым крупным и разнообразным открытым хранилищем данных для моделей на основе поиска, и разрабатывая эффективный конвейер для изучения масштабирования хранилища данных в доступной вычислительно форме. Наконец, мы анализируем влияние улучшения поисковика, фильтрации качества хранилища данных и других выборов дизайна на наши наблюдаемые тенденции масштабирования. В целом, наши результаты показывают, что размер хранилища данных следует рассматривать как неотъемлемую часть компромиссов между эффективностью и производительностью ЯМ. Для упрощения будущих исследований мы предоставляем наше хранилище данных и код в открытом доступе по адресу https://github.com/RulinShao/retrieval-scaling.
English
Scaling laws with respect to the amount of training data and the number of
parameters allow us to predict the cost-benefit trade-offs of pretraining
language models (LMs) in different configurations. In this paper, we consider
another dimension of scaling: the amount of data available at inference time.
Specifically, we find that increasing the size of the datastore used by a
retrieval-based LM monotonically improves language modeling and several
downstream tasks without obvious saturation, such that a smaller model
augmented with a large datastore outperforms a larger LM-only model on
knowledge-intensive tasks. By plotting compute-optimal scaling curves with
varied datastore, model, and pretraining data sizes, we show that using larger
datastores can significantly improve model performance for the same training
compute budget. We carry out our study by constructing a 1.4 trillion-token
datastore named MassiveDS, which is the largest and the most diverse
open-sourced datastore for retrieval-based LMs to date, and designing an
efficient pipeline for studying datastore scaling in a computationally
accessible manner. Finally, we analyze the effect of improving the retriever,
datastore quality filtering, and other design choices on our observed scaling
trends. Overall, our results show that datastore size should be considered as
an integral part of LM efficiency and performance trade-offs. To facilitate
future research, we open-source our datastore and code at
https://github.com/RulinShao/retrieval-scaling.Summary
AI-Generated Summary