ChatPaper.aiChatPaper

トランスフォーマーを用いたスケーラブルなGAN

Scalable GANs with Transformers

September 29, 2025
著者: Sangeek Hyun, MinKyu Lee, Jae-Pil Heo
cs.AI

要旨

スケーラビリティは近年の生成モデルの進歩を牽引してきたが、敵対的学習におけるその原理はまだ十分に探究されていない。本論文では、生成モデルの他のタイプで有効性が証明された2つの設計選択、すなわちコンパクトな変分オートエンコーダ(VAE)の潜在空間での学習と、純粋なトランスフォーマーベースの生成器および識別器の採用を通じて、Generative Adversarial Networks(GANs)のスケーラビリティを調査する。潜在空間での学習は、知覚的な忠実度を保ちつつ効率的な計算を可能にし、この効率性は計算予算に応じて性能がスケールするプレーンなトランスフォーマーと自然に組み合わさる。これらの選択を基盤として、GANsを単純にスケールさせた際に生じる失敗モードを分析する。具体的には、生成器の初期層の活用不足や、ネットワークがスケールする際の最適化の不安定性といった問題を明らかにする。それに応じて、軽量な中間監視や幅を考慮した学習率調整といった、シンプルでスケールフレンドリーな解決策を提供する。我々の実験では、純粋なトランスフォーマーベースかつ潜在空間でのGANsであるGATが、広範な容量(SからXLまで)にわたって容易かつ確実に学習できることを示す。さらに、GAT-XL/2は、ImageNet-256において、わずか40エポックでクラス条件付き生成の単一ステップ性能(FID 2.96)で最先端を達成し、強力なベースラインと比べて6倍少ないエポック数でこれを実現した。
English
Scalability has driven recent advances in generative modeling, yet its principles remain underexplored for adversarial learning. We investigate the scalability of Generative Adversarial Networks (GANs) through two design choices that have proven to be effective in other types of generative models: training in a compact Variational Autoencoder latent space and adopting purely transformer-based generators and discriminators. Training in latent space enables efficient computation while preserving perceptual fidelity, and this efficiency pairs naturally with plain transformers, whose performance scales with computational budget. Building on these choices, we analyze failure modes that emerge when naively scaling GANs. Specifically, we find issues as underutilization of early layers in the generator and optimization instability as the network scales. Accordingly, we provide simple and scale-friendly solutions as lightweight intermediate supervision and width-aware learning-rate adjustment. Our experiments show that GAT, a purely transformer-based and latent-space GANs, can be easily trained reliably across a wide range of capacities (S through XL). Moreover, GAT-XL/2 achieves state-of-the-art single-step, class-conditional generation performance (FID of 2.96) on ImageNet-256 in just 40 epochs, 6x fewer epochs than strong baselines.
PDF12October 1, 2025