Hoe Verkrijgen Grote Taalmodellen Feitelijke Kennis Tijdens Voorafgaande Training?
How Do Large Language Models Acquire Factual Knowledge During Pretraining?
June 17, 2024
Auteurs: Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon Seo
cs.AI
Samenvatting
Ondanks de recente observatie dat grote taalmmodellen (LLMs) aanzienlijke feitelijke kennis kunnen opslaan, is er een beperkt begrip van de mechanismen waarmee ze feitelijke kennis verwerven door middel van pretraining. Dit werk vult deze leemte door te bestuderen hoe LLMs feitelijke kennis verwerven tijdens pretraining. De bevindingen onthullen verschillende belangrijke inzichten in de dynamiek van feitelijke kennisverwerving tijdens pretraining. Ten eerste, tegenintuïtief, observeren we dat pretraining met meer data geen significante verbetering laat zien in het vermogen van het model om feitelijke kennis te verwerven en te behouden. Vervolgens is er een machtswetrelatie tussen trainingsstappen en het vergeten van memorisatie en generalisatie van feitelijke kennis, en LLMs die getraind zijn met gedupliceerde trainingsdata vertonen sneller vergeten. Ten derde kan het trainen van LLMs met grotere batchgroottes de robuustheid van de modellen tegen vergeten vergroten. Over het algemeen suggereren onze observaties dat feitelijke kennisverwerving in LLM-pretraining plaatsvindt door geleidelijk de waarschijnlijkheid van feitelijke kennis die in de pretrainingdata wordt gepresenteerd, te verhogen bij elke stap. Deze toename wordt echter verdund door daaropvolgend vergeten. Op basis van deze interpretatie demonstreren we dat we plausibele verklaringen kunnen bieden voor recent waargenomen gedragingen van LLMs, zoals de slechte prestaties van LLMs op kennis van de lange staart en de voordelen van het dedupliceren van het pretrainingcorpus.
English
Despite the recent observation that large language models (LLMs) can store
substantial factual knowledge, there is a limited understanding of the
mechanisms of how they acquire factual knowledge through pretraining. This work
addresses this gap by studying how LLMs acquire factual knowledge during
pretraining. The findings reveal several important insights into the dynamics
of factual knowledge acquisition during pretraining. First, counterintuitively,
we observe that pretraining on more data shows no significant improvement in
the model's capability to acquire and maintain factual knowledge. Next, there
is a power-law relationship between training steps and forgetting of
memorization and generalization of factual knowledge, and LLMs trained with
duplicated training data exhibit faster forgetting. Third, training LLMs with
larger batch sizes can enhance the models' robustness to forgetting. Overall,
our observations suggest that factual knowledge acquisition in LLM pretraining
occurs by progressively increasing the probability of factual knowledge
presented in the pretraining data at each step. However, this increase is
diluted by subsequent forgetting. Based on this interpretation, we demonstrate
that we can provide plausible explanations for recently observed behaviors of
LLMs, such as the poor performance of LLMs on long-tail knowledge and the
benefits of deduplicating the pretraining corpus.