ChatPaper.aiChatPaper

拡散モデルにおける幾何学的オートエンコーダ

Geometric Autoencoder for Diffusion Models

March 11, 2026
著者: Hangyu Liu, Jianyong Wang, Yutao Sun
cs.AI

要旨

潜在拡散モデルは高解像度画像生成において新たなstate-of-the-artを確立している。視覚基盤モデル(VFM)の事前知識を統合することで生成効率は向上するものの、既存の潜在設計は依然として経験則に依存している。これらの手法は、意味論的分離性、再構成忠実度、潜在空間のコンパクト性を統一することに課題を抱えている。本論文では、これらの課題を体系的に解決する原理に基づいたフレームワークである幾何学オートエンコーダ(GAE)を提案する。様々なアライメント手法を分析することで、GAEはVFMから最適化された低次元の意味論的教師信号を構築し、オートエンコーダに指導を提供する。さらに、標準VAEの制約の強いKLダイバージェンスを置き換える潜在正規化を採用し、拡散学習に特化してより安定した潜在多様体を実現する。高強度ノイズ下での堅牢な再構成を保証するため、GAEは動的ノイズサンプリング機構を組み込んでいる。ImageNet-1K 256×256ベンチマークにおける実証実験では、GAEはClassifier-Free Guidanceなしで、80エポックでgFID 1.82、800エポックで1.31を達成し、既存のstate-of-the-art手法を大幅に上回る性能を示した。生成品質を超えて、GAEは圧縮率、意味的深度、堅牢な再構成安定性の間で優れた均衡を確立している。これらの結果は我々の設計思想を検証し、潜在拡散モデリングにおける有望なパラダイムを提供する。コードとモデルはhttps://github.com/freezing-index/Geometric-Autoencoder-for-Diffusion-Modelsで公開されている。
English
Latent diffusion models have established a new state-of-the-art in high-resolution visual generation. Integrating Vision Foundation Model priors improves generative efficiency, yet existing latent designs remain largely heuristic. These approaches often struggle to unify semantic discriminability, reconstruction fidelity, and latent compactness. In this paper, we propose Geometric Autoencoder (GAE), a principled framework that systematically addresses these challenges. By analyzing various alignment paradigms, GAE constructs an optimized low-dimensional semantic supervision target from VFMs to provide guidance for the autoencoder. Furthermore, we leverage latent normalization that replaces the restrictive KL-divergence of standard VAEs, enabling a more stable latent manifold specifically optimized for diffusion learning. To ensure robust reconstruction under high-intensity noise, GAE incorporates a dynamic noise sampling mechanism. Empirically, GAE achieves compelling performance on the ImageNet-1K 256 times 256 benchmark, reaching a gFID of 1.82 at only 80 epochs and 1.31 at 800 epochs without Classifier-Free Guidance, significantly surpassing existing state-of-the-art methods. Beyond generative quality, GAE establishes a superior equilibrium between compression, semantic depth and robust reconstruction stability. These results validate our design considerations, offering a promising paradigm for latent diffusion modeling. Code and models are publicly available at https://github.com/freezing-index/Geometric-Autoencoder-for-Diffusion-Models.
PDF42March 15, 2026