ChatPaper.aiChatPaper

Direct Discriminatieve Optimalisatie: Je Waarschijnlijkheidsgebaseerde Visuele Generatieve Model is Stiekem een GAN Discriminator

Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator

March 3, 2025
Auteurs: Kaiwen Zheng, Yongxin Chen, Huayu Chen, Guande He, Ming-Yu Liu, Jun Zhu, Qinsheng Zhang
cs.AI

Samenvatting

Hoewel waarschijnlijkheidsgebaseerde generatieve modellen, met name diffusie- en autoregressieve modellen, opmerkelijke kwaliteit hebben bereikt in visuele generatie, lijdt het maximum likelihood estimation (MLE)-doel inherent aan een modus-dekkende neiging die de generatiekwaliteit beperkt bij beperkte modelcapaciteit. In dit werk stellen we Direct Discriminative Optimization (DDO) voor als een uniform raamwerk dat waarschijnlijkheidsgebaseerde generatieve training en het GAN-doel met elkaar verbindt om deze fundamentele beperking te omzeilen. Onze belangrijkste inzicht is het impliciet parametriseren van een discriminator met behulp van de waarschijnlijkheidsratio tussen een leerbaar doelmodel en een vast referentiemodel, wat parallellen trekt met de filosofie van Direct Preference Optimization (DPO). In tegenstelling tot GAN's elimineert deze parametrisering de noodzaak van gezamenlijke training van generator- en discriminatornetwerken, waardoor directe, efficiënte en effectieve finetuning van een goed getraind model mogelijk wordt, voorbij de grenzen van MLE. DDO kan iteratief worden uitgevoerd in een zelfspelende manier voor progressieve modelverfijning, waarbij elke ronde minder dan 1% van de pretrainingsepochs vereist. Onze experimenten tonen de effectiviteit van DDO aan door het vorige state-of-the-art diffusiemodel EDM aanzienlijk te verbeteren, waarbij FID-scores worden verlaagd van 1,79/1,58 naar nieuwe records van 1,30/0,97 op de CIFAR-10/ImageNet-64 datasets, en door zowel begeleidingsvrije als CFG-verbeterde FID's van visuele autoregressieve modellen op ImageNet 256×256 consistent te verbeteren.
English
While likelihood-based generative models, particularly diffusion and autoregressive models, have achieved remarkable fidelity in visual generation, the maximum likelihood estimation (MLE) objective inherently suffers from a mode-covering tendency that limits the generation quality under limited model capacity. In this work, we propose Direct Discriminative Optimization (DDO) as a unified framework that bridges likelihood-based generative training and the GAN objective to bypass this fundamental constraint. Our key insight is to parameterize a discriminator implicitly using the likelihood ratio between a learnable target model and a fixed reference model, drawing parallels with the philosophy of Direct Preference Optimization (DPO). Unlike GANs, this parameterization eliminates the need for joint training of generator and discriminator networks, allowing for direct, efficient, and effective finetuning of a well-trained model to its full potential beyond the limits of MLE. DDO can be performed iteratively in a self-play manner for progressive model refinement, with each round requiring less than 1% of pretraining epochs. Our experiments demonstrate the effectiveness of DDO by significantly advancing the previous SOTA diffusion model EDM, reducing FID scores from 1.79/1.58 to new records of 1.30/0.97 on CIFAR-10/ImageNet-64 datasets, and by consistently improving both guidance-free and CFG-enhanced FIDs of visual autoregressive models on ImageNet 256times256.

Summary

AI-Generated Summary

PDF42March 4, 2025