ChatPaper.aiChatPaper

Ottimizzazione Discriminativa Diretta: Il Tuo Modello Generativo Visivo Basato sulla Verosimiglianza è Segretamente un Discriminatore GAN

Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator

March 3, 2025
Autori: Kaiwen Zheng, Yongxin Chen, Huayu Chen, Guande He, Ming-Yu Liu, Jun Zhu, Qinsheng Zhang
cs.AI

Abstract

Mentre i modelli generativi basati sulla verosimiglianza, in particolare i modelli di diffusione e autoregressivi, hanno raggiunto una fedeltà straordinaria nella generazione visiva, l'obiettivo di massima verosimiglianza (MLE) soffre intrinsecamente di una tendenza alla copertura dei modi che limita la qualità della generazione in presenza di capacità del modello limitata. In questo lavoro, proponiamo l'Optimizzazione Diretta Discriminativa (DDO) come un framework unificato che collega l'addestramento generativo basato sulla verosimiglianza e l'obiettivo GAN per superare questo vincolo fondamentale. La nostra intuizione chiave è quella di parametrizzare un discriminatore implicitamente utilizzando il rapporto di verosimiglianza tra un modello target apprendibile e un modello di riferimento fisso, tracciando parallelismi con la filosofia dell'Optimizzazione Diretta delle Preferenze (DPO). A differenza delle GAN, questa parametrizzazione elimina la necessità di un addestramento congiunto delle reti generatore e discriminatore, consentendo una messa a punto diretta, efficiente ed efficace di un modello ben addestrato fino al suo pieno potenziale oltre i limiti dell'MLE. Il DDO può essere eseguito iterativamente in modalità self-play per un affinamento progressivo del modello, con ogni round che richiede meno dell'1% delle epoche di pre-addestramento. I nostri esperimenti dimostrano l'efficacia del DDO migliorando significativamente il precedente modello di diffusione SOTA EDM, riducendo i punteggi FID da 1.79/1.58 a nuovi record di 1.30/0.97 sui dataset CIFAR-10/ImageNet-64, e migliorando costantemente sia gli FID senza guida che quelli potenziati da CFG dei modelli autoregressivi visivi su ImageNet 256x256.
English
While likelihood-based generative models, particularly diffusion and autoregressive models, have achieved remarkable fidelity in visual generation, the maximum likelihood estimation (MLE) objective inherently suffers from a mode-covering tendency that limits the generation quality under limited model capacity. In this work, we propose Direct Discriminative Optimization (DDO) as a unified framework that bridges likelihood-based generative training and the GAN objective to bypass this fundamental constraint. Our key insight is to parameterize a discriminator implicitly using the likelihood ratio between a learnable target model and a fixed reference model, drawing parallels with the philosophy of Direct Preference Optimization (DPO). Unlike GANs, this parameterization eliminates the need for joint training of generator and discriminator networks, allowing for direct, efficient, and effective finetuning of a well-trained model to its full potential beyond the limits of MLE. DDO can be performed iteratively in a self-play manner for progressive model refinement, with each round requiring less than 1% of pretraining epochs. Our experiments demonstrate the effectiveness of DDO by significantly advancing the previous SOTA diffusion model EDM, reducing FID scores from 1.79/1.58 to new records of 1.30/0.97 on CIFAR-10/ImageNet-64 datasets, and by consistently improving both guidance-free and CFG-enhanced FIDs of visual autoregressive models on ImageNet 256times256.

Summary

AI-Generated Summary

PDF32March 4, 2025