ChatPaper.aiChatPaper

スケールワイズVARは密かに離散拡散である

Scale-Wise VAR is Secretly Discrete Diffusion

September 26, 2025
著者: Amandeep Kumar, Nithin Gopalakrishnan Nair, Vishal M. Patel
cs.AI

要旨

自己回帰型(AR)トランスフォーマーは、視覚生成において強力なパラダイムとして登場し、そのスケーラビリティ、計算効率、および言語と視覚を統合したアーキテクチャが主な理由である。その中でも、次スケール予測を基にした視覚的自己回帰生成(VAR)は、最近、顕著な性能を示し、拡散ベースのモデルを凌駕する結果を達成している。本研究では、VARを再検討し、理論的洞察を明らかにする:マルコフ的アテンションマスクを備えた場合、VARは数学的に離散拡散と等価である。この再解釈を「離散拡散を用いたスケーラブルな視覚精緻化(SRDD)」と名付け、ARトランスフォーマーと拡散モデルの間に原理的な橋渡しを確立する。この新たな視点を活用し、反復的精緻化やアーキテクチャの非効率性の削減といった拡散の利点を直接VARに導入することで、収束の高速化、推論コストの低減、ゼロショット再構成の改善を実現する。複数のデータセットにおいて、VARの拡散ベースの視点が効率と生成の一貫した向上をもたらすことを示す。
English
Autoregressive (AR) transformers have emerged as a powerful paradigm for visual generation, largely due to their scalability, computational efficiency and unified architecture with language and vision. Among them, next scale prediction Visual Autoregressive Generation (VAR) has recently demonstrated remarkable performance, even surpassing diffusion-based models. In this work, we revisit VAR and uncover a theoretical insight: when equipped with a Markovian attention mask, VAR is mathematically equivalent to a discrete diffusion. We term this reinterpretation as Scalable Visual Refinement with Discrete Diffusion (SRDD), establishing a principled bridge between AR transformers and diffusion models. Leveraging this new perspective, we show how one can directly import the advantages of diffusion such as iterative refinement and reduce architectural inefficiencies into VAR, yielding faster convergence, lower inference cost, and improved zero-shot reconstruction. Across multiple datasets, we show that the diffusion based perspective of VAR leads to consistent gains in efficiency and generation.
PDF22September 29, 2025