GANは死んだ;GAN万歳!モダンなGANベースラインThe GAN is dead; long live the GAN! A Modern GAN Baseline
GAN(Generative Adversarial Networks)のトレーニングが難しいという広く言われている主張があり、文献中のGANアーキテクチャには経験的なトリックが散見されます。私たちはこの主張に反証を提供し、より原則的な方法で現代のGANベースラインを構築します。まず、モードのドロップや非収束の問題に対処するよう以前にアドホックなトリックを用いていた、より適切な正則化された相対論的GAN損失を導出します。我々は数学的にこの損失を分析し、ほとんどの既存の相対論的損失とは異なり、局所収束の保証があることを証明します。第二に、新しい損失により、すべてのアドホックなトリックを廃止し、一般的なGANで使用されていた時代遅れのバックボーンを現代のアーキテクチャに置き換えることができます。StyleGAN2を例に挙げながら、簡素化と現代化のロードマップを提示し、新しいミニマリストベースラインであるR3GANを実現します。シンプルであるにもかかわらず、私たちのアプローチはFFHQ、ImageNet、CIFAR、Stacked MNISTデータセットでStyleGAN2を上回り、最先端のGANや拡散モデルと比較して優れた結果を示します。