"Ik heb mezelf wellicht niet duidelijk uitgedrukt": Diagnose van dynamische instabiliteit in LLM-redenering tijdens inferentie
"I May Not Have Articulated Myself Clearly": Diagnosing Dynamic Instability in LLM Reasoning at Inference Time
February 2, 2026
Auteurs: Jinkun Chen, Fengxiang Cheng, Sijia Han, Vlado Keselj
cs.AI
Samenvatting
Redeneerfouten in grote taalmodellen (LLM's) worden doorgaans alleen aan het einde van een generatie gemeten, maar veel fouten manifesteren zich als een procesmatige breuk: het model verliest 'de draad' halverwege het redeneren. Wij onderzoeken of dergelijke breuken detecteerbaar zijn aan de hand van waarneembare grootheden tijdens de inferentie (tokenlogkansen) die beschikbaar zijn in standaard API's, zonder enige training of fine-tuning. We definiëren een eenvoudig instabiliteitssignaal dat opeenvolgende distributionele verschuiving (JSD) en onzekerheid (entropie) combineert, vatten elke trace samen door de pieksterkte van de instabiliteit, en tonen aan dat dit signaal betrouwbaar falen voorspelt. Over GSM8K en HotpotQA voorspelt de instabiliteitssterkte foute antwoorden met een boven-kans AUC en resulteert het in een monotone daling van de nauwkeurigheid op buckelniveau op grote schaal over verschillende modelgroottes. Cruciaal is dat we aantonen dat instabiliteit niet uniform schadelijk is: vroege instabiliteit kan wijzen op een daaropvolgende stabilisatie en een correct eindantwoord (corrigerende instabiliteit), terwijl late instabiliteit vaker wordt gevolgd door falen (destructieve instabiliteit), zelfs bij vergelijkbare piekmagnitudes. Dit geeft aan dat herstelbaarheid niet alleen afhangt van hoe sterk de verdeling verandert, maar ook van wanneer dergelijke veranderingen optreden ten opzichte van de resterende decodeerhorizon. De methode is model-agnostisch, vereist geen training en is reproduceerbaar, en wordt gepresenteerd als een diagnostische lens in plaats van een corrigerend of controlemechanisme.
English
Reasoning failures in large language models (LLMs) are typically measured only at the end of a generation, yet many failures manifest as a process-level breakdown: the model "loses the thread" mid-reasoning. We study whether such breakdowns are detectable from inference-time observables available in standard APIs (token log probabilities), without any training or fine-tuning. We define a simple instability signal that combines consecutive-step distributional shift (JSD) and uncertainty (entropy), summarize each trace by its peak instability strength, and show that this signal reliably predicts failure. Across GSM8K and HotpotQA, instability strength predicts wrong answers with above-chance AUC and yields monotonic bucket-level accuracy decline at scale across model sizes. Crucially, we show that instability is not uniformly harmful: early instability can reflect subsequent stabilization and a correct final answer (corrective instability), whereas late instability is more often followed by failure (destructive instability), even at comparable peak magnitudes, indicating that recoverability depends not only on how strongly the distribution changes but also on when such changes occur relative to the remaining decoding horizon. The method is model-agnostic, training-free, and reproducible, and is presented as a diagnostic lens rather than a corrective or control mechanism.