ChatPaper.aiChatPaper

O Scale-Wise VAR é Secretamente uma Difusão Discreta

Scale-Wise VAR is Secretly Discrete Diffusion

September 26, 2025
Autores: Amandeep Kumar, Nithin Gopalakrishnan Nair, Vishal M. Patel
cs.AI

Resumo

Transformadores autoregressivos (AR) surgiram como um paradigma poderoso para geração visual, em grande parte devido à sua escalabilidade, eficiência computacional e arquitetura unificada para linguagem e visão. Entre eles, a Geração Visual Autoregressiva de Predição de Próxima Escala (VAR) demonstrou recentemente um desempenho notável, superando até mesmo modelos baseados em difusão. Neste trabalho, revisitamos o VAR e revelamos uma percepção teórica: quando equipado com uma máscara de atenção markoviana, o VAR é matematicamente equivalente a uma difusão discreta. Denominamos essa reinterpretação como Refinamento Visual Escalável com Difusão Discreta (SRDD), estabelecendo uma ponte fundamentada entre transformadores AR e modelos de difusão. Aproveitando essa nova perspectiva, mostramos como é possível importar diretamente as vantagens da difusão, como refinamento iterativo, e reduzir ineficiências arquitetônicas no VAR, resultando em convergência mais rápida, custo de inferência reduzido e reconstrução zero-shot aprimorada. Em diversos conjuntos de dados, demonstramos que a perspectiva baseada em difusão do VAR leva a ganhos consistentes em eficiência e geração.
English
Autoregressive (AR) transformers have emerged as a powerful paradigm for visual generation, largely due to their scalability, computational efficiency and unified architecture with language and vision. Among them, next scale prediction Visual Autoregressive Generation (VAR) has recently demonstrated remarkable performance, even surpassing diffusion-based models. In this work, we revisit VAR and uncover a theoretical insight: when equipped with a Markovian attention mask, VAR is mathematically equivalent to a discrete diffusion. We term this reinterpretation as Scalable Visual Refinement with Discrete Diffusion (SRDD), establishing a principled bridge between AR transformers and diffusion models. Leveraging this new perspective, we show how one can directly import the advantages of diffusion such as iterative refinement and reduce architectural inefficiencies into VAR, yielding faster convergence, lower inference cost, and improved zero-shot reconstruction. Across multiple datasets, we show that the diffusion based perspective of VAR leads to consistent gains in efficiency and generation.
PDF22September 29, 2025