ChatPaper.aiChatPaper

Hoe Verkrijgen Grote Taalmodellen Feitelijke Kennis Tijdens Voorafgaande Training?

How Do Large Language Models Acquire Factual Knowledge During Pretraining?

June 17, 2024
Auteurs: Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon Seo
cs.AI

Samenvatting

Ondanks de recente observatie dat grote taalmmodellen (LLMs) aanzienlijke feitelijke kennis kunnen opslaan, is er een beperkt begrip van de mechanismen waarmee ze feitelijke kennis verwerven door middel van pretraining. Dit werk vult deze leemte door te bestuderen hoe LLMs feitelijke kennis verwerven tijdens pretraining. De bevindingen onthullen verschillende belangrijke inzichten in de dynamiek van feitelijke kennisverwerving tijdens pretraining. Ten eerste, tegenintuïtief, observeren we dat pretraining met meer data geen significante verbetering laat zien in het vermogen van het model om feitelijke kennis te verwerven en te behouden. Vervolgens is er een machtswetrelatie tussen trainingsstappen en het vergeten van memorisatie en generalisatie van feitelijke kennis, en LLMs die getraind zijn met gedupliceerde trainingsdata vertonen sneller vergeten. Ten derde kan het trainen van LLMs met grotere batchgroottes de robuustheid van de modellen tegen vergeten vergroten. Over het algemeen suggereren onze observaties dat feitelijke kennisverwerving in LLM-pretraining plaatsvindt door geleidelijk de waarschijnlijkheid van feitelijke kennis die in de pretrainingdata wordt gepresenteerd, te verhogen bij elke stap. Deze toename wordt echter verdund door daaropvolgend vergeten. Op basis van deze interpretatie demonstreren we dat we plausibele verklaringen kunnen bieden voor recent waargenomen gedragingen van LLMs, zoals de slechte prestaties van LLMs op kennis van de lange staart en de voordelen van het dedupliceren van het pretrainingcorpus.
English
Despite the recent observation that large language models (LLMs) can store substantial factual knowledge, there is a limited understanding of the mechanisms of how they acquire factual knowledge through pretraining. This work addresses this gap by studying how LLMs acquire factual knowledge during pretraining. The findings reveal several important insights into the dynamics of factual knowledge acquisition during pretraining. First, counterintuitively, we observe that pretraining on more data shows no significant improvement in the model's capability to acquire and maintain factual knowledge. Next, there is a power-law relationship between training steps and forgetting of memorization and generalization of factual knowledge, and LLMs trained with duplicated training data exhibit faster forgetting. Third, training LLMs with larger batch sizes can enhance the models' robustness to forgetting. Overall, our observations suggest that factual knowledge acquisition in LLM pretraining occurs by progressively increasing the probability of factual knowledge presented in the pretraining data at each step. However, this increase is diluted by subsequent forgetting. Based on this interpretation, we demonstrate that we can provide plausible explanations for recently observed behaviors of LLMs, such as the poor performance of LLMs on long-tail knowledge and the benefits of deduplicating the pretraining corpus.
PDF311February 8, 2026