Latente Verfijning Decodering: Verbetering van Diffusiegebaseerde Taalmodellen door Verfijning van Geloofstoestanden
Latent Refinement Decoding: Enhancing Diffusion-Based Language Models by Refining Belief States
October 13, 2025
Auteurs: Qinglin Zhu, Yizhen Yao, Runcong Zhao, Yanzheng Xiang, Amrutha Saseendran, Chen Jin, Philip Alexander Teare, Bin Liang, Yulan He, Lin Gui
cs.AI
Samenvatting
Autoregressieve (AR) modellen blijven de standaard voor natuurlijke taalgeneratie, maar lijden nog steeds onder hoge latentie vanwege strikt sequentiële decodering. Recente, door diffusie geïnspireerde benaderingen, zoals LlaDA en Dream, verminderen dit door parallel te genereren, maar ze hebben twee kernbeperkingen: informatieverlies, omdat voorspellende distributies voor niet-afgeronde tokens bij elke stap worden weggegooid, en voortijdige vastlegging, waarbij lokale beslissingen worden genomen zonder voldoende globale coördinatie. Wij introduceren Latent Refinement Decoding (LRD), een tweestaps raamwerk met Latent Refinement en een Predictive Feedback Loop. De eerste fase houdt gemaskeerde posities als distributiemengsels van voorspelde tokens en de masker-embedding in stand, waardoor het model meer globaal consistente overtuigingen kan vormen. De tweede fase finaliseert geleidelijk zelfverzekerde tokens terwijl onzekere tokens behouden blijven voor iteratieve feedback. KL-divergentie dynamiek biedt een principieel en betrouwbaar criterium voor convergentie en vroegtijdig stoppen. Experimenten op het gebied van codering (HumanEval +6.3, MBPP +2.6) en redeneren (GSM8K +2.9, MATH500 +3.8) tonen aan dat LRD de nauwkeurigheid verbetert terwijl het snelheidsverbeteringen tot 10.6x levert, waardoor het een sterke en veelzijdige alternatief is voor parallelle sequentiegeneratie.
English
Autoregressive (AR) models remain the standard for natural language
generation but still suffer from high latency due to strictly sequential
decoding. Recent diffusion-inspired approaches, such as LlaDA and Dream,
mitigate this by generating in parallel, yet they suffer from two core
limitations: information loss, as predictive distributions for non-finalized
tokens are discarded at each step, and premature commitment, where local
decisions are made without sufficient global coordination. We introduce Latent
Refinement Decoding (LRD), a two-stage framework with Latent Refinement and a
Predictive Feedback Loop. The first stage maintains masked positions as
distributional mixtures of predicted tokens and the mask embedding, allowing
the model to establish more globally consistent beliefs. The second stage
progressively finalizes confident tokens while retaining uncertain ones for
iterative feedback. KL-divergence dynamics provide a principled and reliable
criterion for convergence and early stopping. Experiments across coding
(HumanEval +6.3, MBPP +2.6) and reasoning (GSM8K +2.9, MATH500 +3.8) show that
LRD improves accuracy while delivering speedups of up to 10.6x, making it a
strong and versatile alternative for parallel sequence generation.