ChatPaper.aiChatPaper

Modelos de Fluxo Adversarial Contínuo

Continuous Adversarial Flow Models

April 13, 2026
Autores: Shanchuan Lin, Ceyuan Yang, Zhijie Lin, Hao Chen, Haoqi Fan
cs.AI

Resumo

Propomos modelos de fluxo adversarial contínuo, um tipo de modelo de fluxo em tempo contínuo treinado com um objetivo adversarial. Ao contrário do flow matching, que utiliza um critério fixo de erro quadrático médio, nossa abordagem introdui um discriminador aprendizado para orientar o treinamento. Essa mudança no objetivo induz uma distribuição generalizada diferente, que empiricamente produz amostras mais alinhadas com a distribuição de dados alvo. Nosso método é proposto principalmente para o pós-treinamento de modelos existentes de flow matching, embora também possa treinar modelos do zero. Na tarefa de geração ImageNet 256px, nosso pós-treinamento melhora substancialmente o FID sem orientação do SiT em espaço latente de 8.26 para 3.63 e do JiT em espaço de pixels de 7.17 para 3.57. Também melhora a geração orientada, reduzindo o FID de 2.06 para 1.53 no SiT e de 1.86 para 1.80 no JiT. Avaliamos ainda nossa abordagem na geração texto-imagem, onde alcança resultados aprimorados nos benchmarks GenEval e DPG.
English
We propose continuous adversarial flow models, a type of continuous-time flow model trained with an adversarial objective. Unlike flow matching, which uses a fixed mean-squared-error criterion, our approach introduces a learned discriminator to guide training. This change in objective induces a different generalized distribution, which empirically produces samples that are better aligned with the target data distribution. Our method is primarily proposed for post-training existing flow-matching models, although it can also train models from scratch. On the ImageNet 256px generation task, our post-training substantially improves the guidance-free FID of latent-space SiT from 8.26 to 3.63 and of pixel-space JiT from 7.17 to 3.57. It also improves guided generation, reducing FID from 2.06 to 1.53 for SiT and from 1.86 to 1.80 for JiT. We further evaluate our approach on text-to-image generation, where it achieves improved results on both the GenEval and DPG benchmarks.
PDF82April 21, 2026