Decodifica con Affinamento Latente: Miglioramento dei Modelli Linguistici Basati su Diffusione attraverso il Raffinamento degli Stati di Credenza
Latent Refinement Decoding: Enhancing Diffusion-Based Language Models by Refining Belief States
October 13, 2025
Autori: Qinglin Zhu, Yizhen Yao, Runcong Zhao, Yanzheng Xiang, Amrutha Saseendran, Chen Jin, Philip Alexander Teare, Bin Liang, Yulan He, Lin Gui
cs.AI
Abstract
I modelli autoregressivi (AR) rimangono lo standard per la generazione del linguaggio naturale, ma continuano a soffrire di un'elevata latenza a causa del decoding strettamente sequenziale. Recenti approcci ispirati alla diffusione, come LlaDA e Dream, mitigano questo problema generando in parallelo, ma presentano due limitazioni fondamentali: la perdita di informazioni, poiché le distribuzioni predittive per i token non finalizzati vengono scartate a ogni passo, e il commitment prematuro, dove le decisioni locali vengono prese senza un'adeguata coordinazione globale. Introduciamo il Latent Refinement Decoding (LRD), un framework a due stadi con Latent Refinement e un Predictive Feedback Loop. Il primo stadio mantiene le posizioni mascherate come miscele distribuzionali di token predetti e dell'embedding della maschera, consentendo al modello di stabilire credenze più globalmente consistenti. Il secondo stadio finalizza progressivamente i token confidenti mantenendo quelli incerti per un feedback iterativo. Le dinamiche della divergenza KL forniscono un criterio affidabile e basato su principi per la convergenza e l'arresto anticipato. Gli esperimenti condotti su compiti di codifica (HumanEval +6.3, MBPP +2.6) e ragionamento (GSM8K +2.9, MATH500 +3.8) dimostrano che LRD migliora l'accuratezza offrendo accelerazioni fino a 10.6x, rendendolo un'alternativa robusta e versatile per la generazione parallela di sequenze.
English
Autoregressive (AR) models remain the standard for natural language
generation but still suffer from high latency due to strictly sequential
decoding. Recent diffusion-inspired approaches, such as LlaDA and Dream,
mitigate this by generating in parallel, yet they suffer from two core
limitations: information loss, as predictive distributions for non-finalized
tokens are discarded at each step, and premature commitment, where local
decisions are made without sufficient global coordination. We introduce Latent
Refinement Decoding (LRD), a two-stage framework with Latent Refinement and a
Predictive Feedback Loop. The first stage maintains masked positions as
distributional mixtures of predicted tokens and the mask embedding, allowing
the model to establish more globally consistent beliefs. The second stage
progressively finalizes confident tokens while retaining uncertain ones for
iterative feedback. KL-divergence dynamics provide a principled and reliable
criterion for convergence and early stopping. Experiments across coding
(HumanEval +6.3, MBPP +2.6) and reasoning (GSM8K +2.9, MATH500 +3.8) show that
LRD improves accuracy while delivering speedups of up to 10.6x, making it a
strong and versatile alternative for parallel sequence generation.