トランスフォーマーを用いたスケーラブルなGAN
Scalable GANs with Transformers
September 29, 2025
著者: Sangeek Hyun, MinKyu Lee, Jae-Pil Heo
cs.AI
要旨
スケーラビリティは近年の生成モデルの進歩を牽引してきたが、敵対的学習におけるその原理はまだ十分に探究されていない。本論文では、生成モデルの他のタイプで有効性が証明された2つの設計選択、すなわちコンパクトな変分オートエンコーダ(VAE)の潜在空間での学習と、純粋なトランスフォーマーベースの生成器および識別器の採用を通じて、Generative Adversarial Networks(GANs)のスケーラビリティを調査する。潜在空間での学習は、知覚的な忠実度を保ちつつ効率的な計算を可能にし、この効率性は計算予算に応じて性能がスケールするプレーンなトランスフォーマーと自然に組み合わさる。これらの選択を基盤として、GANsを単純にスケールさせた際に生じる失敗モードを分析する。具体的には、生成器の初期層の活用不足や、ネットワークがスケールする際の最適化の不安定性といった問題を明らかにする。それに応じて、軽量な中間監視や幅を考慮した学習率調整といった、シンプルでスケールフレンドリーな解決策を提供する。我々の実験では、純粋なトランスフォーマーベースかつ潜在空間でのGANsであるGATが、広範な容量(SからXLまで)にわたって容易かつ確実に学習できることを示す。さらに、GAT-XL/2は、ImageNet-256において、わずか40エポックでクラス条件付き生成の単一ステップ性能(FID 2.96)で最先端を達成し、強力なベースラインと比べて6倍少ないエポック数でこれを実現した。
English
Scalability has driven recent advances in generative modeling, yet its
principles remain underexplored for adversarial learning. We investigate the
scalability of Generative Adversarial Networks (GANs) through two design
choices that have proven to be effective in other types of generative models:
training in a compact Variational Autoencoder latent space and adopting purely
transformer-based generators and discriminators. Training in latent space
enables efficient computation while preserving perceptual fidelity, and this
efficiency pairs naturally with plain transformers, whose performance scales
with computational budget. Building on these choices, we analyze failure modes
that emerge when naively scaling GANs. Specifically, we find issues as
underutilization of early layers in the generator and optimization instability
as the network scales. Accordingly, we provide simple and scale-friendly
solutions as lightweight intermediate supervision and width-aware learning-rate
adjustment. Our experiments show that GAT, a purely transformer-based and
latent-space GANs, can be easily trained reliably across a wide range of
capacities (S through XL). Moreover, GAT-XL/2 achieves state-of-the-art
single-step, class-conditional generation performance (FID of 2.96) on
ImageNet-256 in just 40 epochs, 6x fewer epochs than strong baselines.