Latent Refinement Decoding: Verbesserung diffusionsbasierter Sprachmodelle durch die Verfeinerung von Glaubenszuständen
Latent Refinement Decoding: Enhancing Diffusion-Based Language Models by Refining Belief States
October 13, 2025
papers.authors: Qinglin Zhu, Yizhen Yao, Runcong Zhao, Yanzheng Xiang, Amrutha Saseendran, Chen Jin, Philip Alexander Teare, Bin Liang, Yulan He, Lin Gui
cs.AI
papers.abstract
Autoregressive (AR) Modelle bleiben der Standard für die natürliche Sprachgenerierung, leiden jedoch weiterhin unter hoher Latenz aufgrund des streng sequenziellen Decodierens. Neuere, von Diffusionsprozessen inspirierte Ansätze wie LlaDA und Dream mildern dies durch parallele Generierung, weisen jedoch zwei zentrale Einschränkungen auf: Informationsverlust, da prädiktive Verteilungen für nicht finalisierte Tokens in jedem Schritt verworfen werden, und vorzeitige Festlegung, bei der lokale Entscheidungen ohne ausreichende globale Koordination getroffen werden. Wir stellen Latent Refinement Decoding (LRD) vor, ein zweistufiges Framework mit Latent Refinement und einer Predictive Feedback Loop. Die erste Stufe bewahrt maskierte Positionen als verteilungsbasierte Mischungen aus vorhergesagten Tokens und der Masken-Einbettung, wodurch das Modell global konsistentere Überzeugungen entwickeln kann. Die zweite Stufe finalisiert schrittweise confidente Tokens, während unsichere für iteratives Feedback beibehalten werden. KL-Divergenz-Dynamiken bieten ein prinzipielles und zuverlässiges Kriterium für Konvergenz und frühzeitiges Stoppen. Experimente in den Bereichen Programmierung (HumanEval +6,3, MBPP +2,6) und logisches Denken (GSM8K +2,9, MATH500 +3,8) zeigen, dass LRD die Genauigkeit verbessert und gleichzeitig Beschleunigungen von bis zu 10,6x liefert, was es zu einer starken und vielseitigen Alternative für die parallele Sequenzgenerierung macht.
English
Autoregressive (AR) models remain the standard for natural language
generation but still suffer from high latency due to strictly sequential
decoding. Recent diffusion-inspired approaches, such as LlaDA and Dream,
mitigate this by generating in parallel, yet they suffer from two core
limitations: information loss, as predictive distributions for non-finalized
tokens are discarded at each step, and premature commitment, where local
decisions are made without sufficient global coordination. We introduce Latent
Refinement Decoding (LRD), a two-stage framework with Latent Refinement and a
Predictive Feedback Loop. The first stage maintains masked positions as
distributional mixtures of predicted tokens and the mask embedding, allowing
the model to establish more globally consistent beliefs. The second stage
progressively finalizes confident tokens while retaining uncertain ones for
iterative feedback. KL-divergence dynamics provide a principled and reliable
criterion for convergence and early stopping. Experiments across coding
(HumanEval +6.3, MBPP +2.6) and reasoning (GSM8K +2.9, MATH500 +3.8) show that
LRD improves accuracy while delivering speedups of up to 10.6x, making it a
strong and versatile alternative for parallel sequence generation.