ChatPaper.aiChatPaper

O Tempo é uma Característica: Explorando Dinâmicas Temporais em Modelos de Linguagem de Difusão

Time Is a Feature: Exploiting Temporal Dynamics in Diffusion Language Models

August 12, 2025
Autores: Wen Wang, Bozhen Fang, Chenchen Jing, Yongliang Shen, Yangyi Shen, Qiuyu Wang, Hao Ouyang, Hao Chen, Chunhua Shen
cs.AI

Resumo

Modelos de linguagem de grande escala baseados em difusão (dLLMs) geram texto por meio de desruídos iterativos, mas as estratégias atuais de decodificação descartam previsões intermediárias ricas em favor da saída final. Nosso trabalho aqui revela um fenômeno crítico, a oscilação temporal, em que respostas corretas frequentemente surgem no processo intermediário, mas são sobrescritas em etapas posteriores de desruído. Para abordar esse problema, introduzimos dois métodos complementares que exploram a consistência temporal: 1) Votação de Autoconsistência Temporal, uma estratégia de decodificação sem treinamento, aplicada durante o teste, que agrega previsões ao longo das etapas de desruído para selecionar a saída mais consistente; e 2) um método pós-treinamento denominado Reforço de Consistência Temporal, que utiliza a Entropia Semântica Temporal (TSE), uma medida de estabilidade semântica entre previsões intermediárias, como sinal de recompensa para incentivar gerações estáveis. Resultados empíricos em múltiplos benchmarks demonstram a eficácia de nossa abordagem. Usando apenas a recompensa negativa de TSE, observamos uma melhoria média notável de 24,7% no conjunto de dados Countdown em relação a um dLLM existente. Combinado com a recompensa de precisão, alcançamos ganhos absolutos de 2,0% no GSM8K, 4,3% no MATH500, 6,6% no SVAMP e 25,3% no Countdown, respectivamente. Nossas descobertas destacam o potencial inexplorado da dinâmica temporal em dLLMs e oferecem duas ferramentas simples, porém eficazes, para aproveitá-las.
English
Diffusion large language models (dLLMs) generate text through iterative denoising, yet current decoding strategies discard rich intermediate predictions in favor of the final output. Our work here reveals a critical phenomenon, temporal oscillation, where correct answers often emerge in the middle process, but are overwritten in later denoising steps. To address this issue, we introduce two complementary methods that exploit temporal consistency: 1) Temporal Self-Consistency Voting, a training-free, test-time decoding strategy that aggregates predictions across denoising steps to select the most consistent output; and 2) a post-training method termed Temporal Consistency Reinforcement, which uses Temporal Semantic Entropy (TSE), a measure of semantic stability across intermediate predictions, as a reward signal to encourage stable generations. Empirical results across multiple benchmarks demonstrate the effectiveness of our approach. Using the negative TSE reward alone, we observe a remarkable average improvement of 24.7% on the Countdown dataset over an existing dLLM. Combined with the accuracy reward, we achieve absolute gains of 2.0% on GSM8K, 4.3% on MATH500, 6.6% on SVAMP, and 25.3% on Countdown, respectively. Our findings underscore the untapped potential of temporal dynamics in dLLMs and offer two simple yet effective tools to harness them.
PDF362August 13, 2025