ChatPaper.aiChatPaper

Adversariële Stroommodellen

Adversarial Flow Models

November 27, 2025
Auteurs: Shanchuan Lin, Ceyuan Yang, Zhijie Lin, Hao Chen, Haoqi Fan
cs.AI

Samenvatting

Wij presenteren adversariële stromingsmodellen, een klasse van generatieve modellen die adversariële modellen en stromingsmodellen verenigt. Onze methode ondersteunt native één-staps of multi-staps generatie en wordt getraind met behulp van de adversariële doelstelling. In tegenstelling tot traditionele GANs, waarbij de generator een willekeurig transportplan tussen de ruis- en de dataverdelingen leert, leert onze generator een deterministische mapping van ruis naar data, wat hetzelfde optimale transport is als in stromingsmatchingsmodellen. Dit stabiliseert de adversariële training aanzienlijk. Ook, in tegenstelling tot op consistentie gebaseerde methoden, leert ons model direct één-staps of weinig-staps generatie zonder de tussenliggende tijdstappen van de probabilistische stroom voor propagatie te hoeven leren. Dit bespaart modelcapaciteit, vermindert trainingsiteraties en vermijdt foutenaccumulatie. Onder dezelfde 1NFE-instelling op ImageNet-256px benadert ons B/2-model de prestaties van op consistentie gebaseerde XL/2-modellen, terwijl ons XL/2-model een nieuwe beste FID van 2,38 bereikt. Wij tonen bovendien de mogelijkheid aan van end-to-end training van 56-laagse en 112-laagse modellen door dieptereplicatie zonder enige tussenliggende supervisie, en behalen FID's van respectievelijk 2,08 en 1,94 met een enkele voorwaartse pass, waarmee hun 2NFE- en 4NFE-tegenhangers worden overtroffen.
English
We present adversarial flow models, a class of generative models that unifies adversarial models and flow models. Our method supports native one-step or multi-step generation and is trained using the adversarial objective. Unlike traditional GANs, where the generator learns an arbitrary transport plan between the noise and the data distributions, our generator learns a deterministic noise-to-data mapping, which is the same optimal transport as in flow-matching models. This significantly stabilizes adversarial training. Also, unlike consistency-based methods, our model directly learns one-step or few-step generation without needing to learn the intermediate timesteps of the probability flow for propagation. This saves model capacity, reduces training iterations, and avoids error accumulation. Under the same 1NFE setting on ImageNet-256px, our B/2 model approaches the performance of consistency-based XL/2 models, while our XL/2 model creates a new best FID of 2.38. We additionally show the possibility of end-to-end training of 56-layer and 112-layer models through depth repetition without any intermediate supervision, and achieve FIDs of 2.08 and 1.94 using a single forward pass, surpassing their 2NFE and 4NFE counterparts.
PDF141December 2, 2025