ChatPaper.aiChatPaper

Modelos de Flujo Adversarial Continuo

Continuous Adversarial Flow Models

April 13, 2026
Autores: Shanchuan Lin, Ceyuan Yang, Zhijie Lin, Hao Chen, Haoqi Fan
cs.AI

Resumen

Proponemos modelos de flujo adversarial continuo, un tipo de modelo de flujo en tiempo continuo entrenado con un objetivo adversarial. A diferencia del *flow matching*, que utiliza un criterio fijo de error cuadrático medio, nuestro enfoque introduce un discriminador aprendido para guiar el entrenamiento. Este cambio en el objetivo induce una distribución generalizada diferente, que empíricamente produce muestras que están mejor alineadas con la distribución de datos objetivo. Nuestro método se propone principalmente para el post-entrenamiento de modelos existentes de *flow matching*, aunque también puede entrenar modelos desde cero. En la tarea de generación de ImageNet a 256px, nuestro post-entrenamiento mejora sustancialmente el FID sin guía del SiT en espacio latente de 8.26 a 3.63 y del JiT en espacio de píxeles de 7.17 a 3.57. También mejora la generación guiada, reduciendo el FID de 2.06 a 1.53 para SiT y de 1.86 a 1.80 para JiT. Evaluamos además nuestro enfoque en la generación de texto a imagen, donde logra resultados mejorados tanto en los benchmarks GenEval como DPG.
English
We propose continuous adversarial flow models, a type of continuous-time flow model trained with an adversarial objective. Unlike flow matching, which uses a fixed mean-squared-error criterion, our approach introduces a learned discriminator to guide training. This change in objective induces a different generalized distribution, which empirically produces samples that are better aligned with the target data distribution. Our method is primarily proposed for post-training existing flow-matching models, although it can also train models from scratch. On the ImageNet 256px generation task, our post-training substantially improves the guidance-free FID of latent-space SiT from 8.26 to 3.63 and of pixel-space JiT from 7.17 to 3.57. It also improves guided generation, reducing FID from 2.06 to 1.53 for SiT and from 1.86 to 1.80 for JiT. We further evaluate our approach on text-to-image generation, where it achieves improved results on both the GenEval and DPG benchmarks.
PDF51April 15, 2026