ChatPaper.aiChatPaper

Como os Modelos de Linguagem de Grande Escala Adquirem Conhecimento Factual Durante o Pré-treinamento?

How Do Large Language Models Acquire Factual Knowledge During Pretraining?

June 17, 2024
Autores: Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon Seo
cs.AI

Resumo

Apesar da observação recente de que os grandes modelos de linguagem (LLMs) podem armazenar um conhecimento factual substancial, há uma compreensão limitada sobre os mecanismos pelos quais eles adquirem conhecimento factual por meio do pré-treinamento. Este trabalho aborda essa lacuna ao estudar como os LLMs adquirem conhecimento factual durante o pré-treinamento. As descobertas revelam vários insights importantes sobre a dinâmica de aquisição de conhecimento factual durante o pré-treinamento. Primeiro, contrariamente à intuição, observamos que o pré-treinamento com mais dados não mostra uma melhoria significativa na capacidade do modelo de adquirir e manter conhecimento factual. Em seguida, há uma relação de lei de potência entre os passos de treinamento e o esquecimento da memorização e generalização do conhecimento factual, e os LLMs treinados com dados duplicados exibem um esquecimento mais rápido. Terceiro, treinar LLMs com tamanhos de lote maiores pode aumentar a robustez dos modelos ao esquecimento. No geral, nossas observações sugerem que a aquisição de conhecimento factual no pré-treinamento de LLMs ocorre ao aumentar progressivamente a probabilidade do conhecimento factual apresentado nos dados de pré-treinamento a cada passo. No entanto, esse aumento é diluído pelo subsequente esquecimento. Com base nessa interpretação, demonstramos que podemos fornecer explicações plausíveis para comportamentos recentemente observados em LLMs, como o desempenho ruim dos LLMs em conhecimento de cauda longa e os benefícios de deduplicar o corpus de pré-treinamento.
English
Despite the recent observation that large language models (LLMs) can store substantial factual knowledge, there is a limited understanding of the mechanisms of how they acquire factual knowledge through pretraining. This work addresses this gap by studying how LLMs acquire factual knowledge during pretraining. The findings reveal several important insights into the dynamics of factual knowledge acquisition during pretraining. First, counterintuitively, we observe that pretraining on more data shows no significant improvement in the model's capability to acquire and maintain factual knowledge. Next, there is a power-law relationship between training steps and forgetting of memorization and generalization of factual knowledge, and LLMs trained with duplicated training data exhibit faster forgetting. Third, training LLMs with larger batch sizes can enhance the models' robustness to forgetting. Overall, our observations suggest that factual knowledge acquisition in LLM pretraining occurs by progressively increasing the probability of factual knowledge presented in the pretraining data at each step. However, this increase is diluted by subsequent forgetting. Based on this interpretation, we demonstrate that we can provide plausible explanations for recently observed behaviors of LLMs, such as the poor performance of LLMs on long-tail knowledge and the benefits of deduplicating the pretraining corpus.
PDF311December 6, 2024