A GAN está morta; viva a GAN! Uma Linha de Base Moderna para GANsThe GAN is dead; long live the GAN! A Modern GAN Baseline
Existe uma alegação amplamente difundida de que as GANs são difíceis de treinar, e as arquiteturas de GAN na literatura estão repletas de truques empíricos. Apresentamos evidências contra essa alegação e construímos uma linha de base moderna de GAN de maneira mais fundamentada. Primeiramente, derivamos uma perda regularizada relativística bem-comportada que aborda questões de eliminação de modos e falta de convergência que foram anteriormente resolvidas por meio de um conjunto de truques ad hoc. Analisamos matematicamente nossa perda e demonstramos que ela admite garantias de convergência local, ao contrário da maioria das perdas relativísticas existentes. Em segundo lugar, nossa nova perda nos permite descartar todos os truques ad hoc e substituir espinhas dorsais desatualizadas usadas em GANs comuns por arquiteturas modernas. Usando o StyleGAN2 como exemplo, apresentamos um roteiro de simplificação e modernização que resulta em uma nova linha de base minimalista - R3GAN. Apesar de ser simples, nossa abordagem supera o StyleGAN2 nos conjuntos de dados FFHQ, ImageNet, CIFAR e Stacked MNIST, e se compara favoravelmente aos GANs e modelos de difusão de ponta.