ChatPaper.aiChatPaper

Otimização Discriminativa Direta: Seu Modelo Generativo Visual Baseado em Verossimilhança é Secretamente um Discriminador de GAN

Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator

March 3, 2025
Autores: Kaiwen Zheng, Yongxin Chen, Huayu Chen, Guande He, Ming-Yu Liu, Jun Zhu, Qinsheng Zhang
cs.AI

Resumo

Embora os modelos generativos baseados em verossimilhança, particularmente os modelos de difusão e autoregressivos, tenham alcançado uma fidelidade notável na geração visual, o objetivo de estimativa de máxima verossimilhança (MLE) sofre inerentemente de uma tendência de cobertura de modos que limita a qualidade da geração sob capacidade limitada do modelo. Neste trabalho, propomos a Otimização Discriminativa Direta (DDO) como uma estrutura unificada que conecta o treinamento generativo baseado em verossimilhança ao objetivo GAN para contornar essa restrição fundamental. Nossa principal percepção é parametrizar um discriminador implicitamente usando a razão de verossimilhança entre um modelo alvo aprendível e um modelo de referência fixo, traçando paralelos com a filosofia da Otimização de Preferência Direta (DPO). Diferente das GANs, essa parametrização elimina a necessidade de treinamento conjunto de redes geradoras e discriminadoras, permitindo o ajuste fino direto, eficiente e eficaz de um modelo bem treinado para seu potencial máximo além dos limites do MLE. O DDO pode ser realizado iterativamente de forma autônoma para refinamento progressivo do modelo, com cada rodada exigindo menos de 1% das épocas de pré-treinamento. Nossos experimentos demonstram a eficácia do DDO ao avançar significativamente o modelo de difusão EDM, anteriormente SOTA, reduzindo os escores FID de 1,79/1,58 para novos recordes de 1,30/0,97 nos conjuntos de dados CIFAR-10/ImageNet-64, e ao melhorar consistentemente tanto os FIDs sem orientação quanto os aprimorados por CFG de modelos autoregressivos visuais no ImageNet 256x256.
English
While likelihood-based generative models, particularly diffusion and autoregressive models, have achieved remarkable fidelity in visual generation, the maximum likelihood estimation (MLE) objective inherently suffers from a mode-covering tendency that limits the generation quality under limited model capacity. In this work, we propose Direct Discriminative Optimization (DDO) as a unified framework that bridges likelihood-based generative training and the GAN objective to bypass this fundamental constraint. Our key insight is to parameterize a discriminator implicitly using the likelihood ratio between a learnable target model and a fixed reference model, drawing parallels with the philosophy of Direct Preference Optimization (DPO). Unlike GANs, this parameterization eliminates the need for joint training of generator and discriminator networks, allowing for direct, efficient, and effective finetuning of a well-trained model to its full potential beyond the limits of MLE. DDO can be performed iteratively in a self-play manner for progressive model refinement, with each round requiring less than 1% of pretraining epochs. Our experiments demonstrate the effectiveness of DDO by significantly advancing the previous SOTA diffusion model EDM, reducing FID scores from 1.79/1.58 to new records of 1.30/0.97 on CIFAR-10/ImageNet-64 datasets, and by consistently improving both guidance-free and CFG-enhanced FIDs of visual autoregressive models on ImageNet 256times256.

Summary

AI-Generated Summary

PDF32March 4, 2025