ChatPaper.aiChatPaper

Recupero della Memoria e Consolidamento nei Modelli Linguistici di Grande Scala attraverso Token Funzionali

Memory Retrieval and Consolidation in Large Language Models through Function Tokens

October 9, 2025
Autori: Shaohua Zhang, Yuan Lin, Hang Li
cs.AI

Abstract

Il notevole successo dei grandi modelli linguistici (LLM) deriva dalla loro capacità di consolidare grandi quantità di conoscenza nella memoria durante la fase di pre-addestramento e di recuperarla dalla memoria durante l'inferenza, abilitando funzionalità avanzate come la memorizzazione della conoscenza, il seguire istruzioni e il ragionamento. Tuttavia, i meccanismi di recupero e consolidamento della memoria negli LLM rimangono poco compresi. In questo articolo, proponiamo l'ipotesi del token di funzione per spiegare il funzionamento degli LLM: durante l'inferenza, i token di funzione attivano le caratteristiche più predittive dal contesto e governano la previsione del token successivo (recupero della memoria). Durante il pre-addestramento, la previsione dei token successivi (solitamente token di contenuto) che seguono i token di funzione aumenta il numero di caratteristiche apprese dagli LLM e aggiorna i parametri del modello (consolidamento della memoria). I token di funzione qui corrispondono approssimativamente alle parole funzionali in linguistica, inclusi segni di punteggiatura, articoli, preposizioni e congiunzioni, in contrasto con i token di contenuto. Forniamo ampie prove sperimentali a supporto di questa ipotesi. Utilizzando l'analisi di grafi bipartiti, mostriamo che un piccolo numero di token di funzione attiva la maggior parte delle caratteristiche. Studi di caso rivelano ulteriormente come i token di funzione attivino le caratteristiche più predittive dal contesto per dirigere la previsione del token successivo. Troviamo inoltre che durante il pre-addestramento, la perdita di addestramento è dominata dalla previsione dei token di contenuto successivi ai token di funzione, il che costringe i token di funzione a selezionare le caratteristiche più predittive dal contesto.
English
The remarkable success of large language models (LLMs) stems from their ability to consolidate vast amounts of knowledge into the memory during pre-training and to retrieve it from the memory during inference, enabling advanced capabilities such as knowledge memorization, instruction-following and reasoning. However, the mechanisms of memory retrieval and consolidation in LLMs remain poorly understood. In this paper, we propose the function token hypothesis to explain the workings of LLMs: During inference, function tokens activate the most predictive features from context and govern next token prediction (memory retrieval). During pre-training, predicting the next tokens (usually content tokens) that follow function tokens increases the number of learned features of LLMs and updates the model parameters (memory consolidation). Function tokens here roughly correspond to function words in linguistics, including punctuation marks, articles, prepositions, and conjunctions, in contrast to content tokens. We provide extensive experimental evidence supporting this hypothesis. Using bipartite graph analysis, we show that a small number of function tokens activate the majority of features. Case studies further reveal how function tokens activate the most predictive features from context to direct next token prediction. We also find that during pre-training, the training loss is dominated by predicting the next content tokens following function tokens, which forces the function tokens to select the most predictive features from context.
PDF72October 10, 2025