Pensare per Ricordare: Come il Ragionamento Sblocca la Conoscenza Parametrica nei LLM
Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMs
March 10, 2026
Autori: Zorik Gekhman, Roee Aharoni, Eran Ofek, Mor Geva, Roi Reichart, Jonathan Herzig
cs.AI
Abstract
Mentre il ragionamento nei LLM svolge un ruolo naturale in ambito matematico, nella generazione di codice e nelle domande fattuali multi-hop, il suo effetto su domande fattuali semplici e single-hop rimane poco chiaro. Tali domande non richiedono una scomposizione logica passo-passo, rendendo controintuitiva l'utilità del ragionamento. Tuttavia, scopriamo che l'abilitazione del ragionamento espande sostanzialmente il confine delle capacità di richiamo della conoscenza parametrica del modello, sbloccando risposte corriere che altrimenti risulterebbero di fatto irraggiungibili. Perché il ragionamento aiuta il richiamo della conoscenza parametrica quando non ci sono passaggi complessi da svolgere? Per rispondere, progettiamo una serie di esperimenti controllati guidati da ipotesi e identifichiamo due meccanismi chiave: (1) un effetto tampone computazionale, dove il modello utilizza i token di ragionamento generati per eseguire calcoli latenti indipendenti dal loro contenuto semantico; e (2) il priming fattuale, dove la generazione di fatti topicamente correlati funge da ponte semantico che facilita il recupero della risposta corretta. È importante notare che quest'ultimo meccanismo di auto-recupero generativo comporta rischi intrinseci: dimostriamo che allucinare fatti intermedi durante il ragionamento aumenta la probabilità di allucinazioni nella risposta finale. Infine, mostriamo che le nostre intuizioni possono essere sfruttate per migliorare direttamente l'accuratezza del modello privilegiando traiettorie di ragionamento che contengono affermazioni fattuali prive di allucinazioni.
English
While reasoning in LLMs plays a natural role in math, code generation, and multi-hop factual questions, its effect on simple, single-hop factual questions remains unclear. Such questions do not require step-by-step logical decomposition, making the utility of reasoning highly counterintuitive. Nevertheless, we find that enabling reasoning substantially expands the capability boundary of the model's parametric knowledge recall, unlocking correct answers that are otherwise effectively unreachable. Why does reasoning aid parametric knowledge recall when there are no complex reasoning steps to be done? To answer this, we design a series of hypothesis-driven controlled experiments, and identify two key driving mechanisms: (1) a computational buffer effect, where the model uses the generated reasoning tokens to perform latent computation independent of their semantic content; and (2) factual priming, where generating topically related facts acts as a semantic bridge that facilitates correct answer retrieval. Importantly, this latter generative self-retrieval mechanism carries inherent risks: we demonstrate that hallucinating intermediate facts during reasoning increases the likelihood of hallucinations in the final answer. Finally, we show that our insights can be harnessed to directly improve model accuracy by prioritizing reasoning trajectories that contain hallucination-free factual statements.