ChatPaper.aiChatPaper

Raffinement Latent par Décodage : Amélioration des Modèles de Langage Basés sur la Diffusion par l’Affinement des États de Croyance

Latent Refinement Decoding: Enhancing Diffusion-Based Language Models by Refining Belief States

October 13, 2025
papers.authors: Qinglin Zhu, Yizhen Yao, Runcong Zhao, Yanzheng Xiang, Amrutha Saseendran, Chen Jin, Philip Alexander Teare, Bin Liang, Yulan He, Lin Gui
cs.AI

papers.abstract

Les modèles autorégressifs (AR) restent la norme pour la génération de langage naturel, mais ils souffrent toujours d'une latence élevée en raison d'un décodage strictement séquentiel. Les approches récentes inspirées de la diffusion, telles que LlaDA et Dream, atténuent ce problème en générant en parallèle, mais elles présentent deux limitations principales : la perte d'information, car les distributions prédictives pour les tokens non finalisés sont abandonnées à chaque étape, et l'engagement prématuré, où des décisions locales sont prises sans coordination globale suffisante. Nous introduisons le **Latent Refinement Decoding (LRD)**, un cadre en deux étapes comprenant un **Latent Refinement** et une **Boucle de Rétroaction Prédictive**. La première étape maintient les positions masquées comme des mélanges distributionnels de tokens prédits et de l'embedding de masque, permettant au modèle d'établir des croyances plus cohérentes à l'échelle globale. La seconde étape finalise progressivement les tokens confiants tout en conservant les incertains pour une rétroaction itérative. La dynamique de la divergence de KL fournit un critère fiable et fondé pour la convergence et l'arrêt précoce. Les expériences menées sur des tâches de codage (HumanEval +6,3, MBPP +2,6) et de raisonnement (GSM8K +2,9, MATH500 +3,8) montrent que LRD améliore la précision tout en offrant des accélérations allant jusqu'à 10,6x, en faisant une alternative robuste et polyvalente pour la génération parallèle de séquences.
English
Autoregressive (AR) models remain the standard for natural language generation but still suffer from high latency due to strictly sequential decoding. Recent diffusion-inspired approaches, such as LlaDA and Dream, mitigate this by generating in parallel, yet they suffer from two core limitations: information loss, as predictive distributions for non-finalized tokens are discarded at each step, and premature commitment, where local decisions are made without sufficient global coordination. We introduce Latent Refinement Decoding (LRD), a two-stage framework with Latent Refinement and a Predictive Feedback Loop. The first stage maintains masked positions as distributional mixtures of predicted tokens and the mask embedding, allowing the model to establish more globally consistent beliefs. The second stage progressively finalizes confident tokens while retaining uncertain ones for iterative feedback. KL-divergence dynamics provide a principled and reliable criterion for convergence and early stopping. Experiments across coding (HumanEval +6.3, MBPP +2.6) and reasoning (GSM8K +2.9, MATH500 +3.8) show that LRD improves accuracy while delivering speedups of up to 10.6x, making it a strong and versatile alternative for parallel sequence generation.
PDF502October 14, 2025