ChatPaper.aiChatPaper

Cartes de Flux Variationnelles : Faites du Bruit pour la Génération Conditionnelle en Une Étape

Variational Flow Maps: Make Some Noise for One-Step Conditional Generation

March 7, 2026
Auteurs: Abbas Mammadov, So Takao, Bohan Chen, Ricardo Baptista, Morteza Mardani, Yee Whye Teh, Julius Berner
cs.AI

Résumé

Les cartes de flux permettent une génération d'images de haute qualité en une seule passe avant. Cependant, contrairement aux modèles de diffusion itératifs, leur absence de trajectoire d'échantillonnage explicite empêche l'intégration de contraintes externes pour la génération conditionnelle et la résolution de problèmes inverses. Nous proposons les Cartes de Flux Variationnelles, un cadre pour l'échantillonnage conditionnel qui déplace la perspective du conditionnement de "guider un chemin d'échantillonnage" vers celle "d'apprendre le bruit initial approprié". Plus précisément, étant donnée une observation, nous cherchons à apprendre un modèle adaptateur de bruit qui produit une distribution de bruit, de sorte qu'après transformation vers l'espace des données via la carte de flux, les échantillons respectent l'observation et l'a priori des données. À cette fin, nous développons un objectif variationnel fondé qui entraîne conjointement l'adaptateur de bruit et la carte de flux, améliorant l'alignement bruit-données, de telle sorte que l'échantillonnage à partir d'une distribution a posteriori complexe soit réalisé avec un simple adaptateur. Les expériences sur divers problèmes inverses montrent que les CFV produisent des échantillons conditionnels bien calibrés en une seule (ou quelques) étape(s). Pour ImageNet, la CFV atteint une fidélité compétitive tout en accélérant l'échantillonnage de plusieurs ordres de grandeur par rapport aux modèles de diffusion/flux itératifs alternatifs. Le code est disponible à l'adresse https://github.com/abbasmammadov/VFM
English
Flow maps enable high-quality image generation in a single forward pass. However, unlike iterative diffusion models, their lack of an explicit sampling trajectory impedes incorporating external constraints for conditional generation and solving inverse problems. We put forth Variational Flow Maps, a framework for conditional sampling that shifts the perspective of conditioning from "guiding a sampling path", to that of "learning the proper initial noise". Specifically, given an observation, we seek to learn a noise adapter model that outputs a noise distribution, so that after mapping to the data space via flow map, the samples respect the observation and data prior. To this end, we develop a principled variational objective that jointly trains the noise adapter and the flow map, improving noise-data alignment, such that sampling from complex data posterior is achieved with a simple adapter. Experiments on various inverse problems show that VFMs produce well-calibrated conditional samples in a single (or few) steps. For ImageNet, VFM attains competitive fidelity while accelerating the sampling by orders of magnitude compared to alternative iterative diffusion/flow models. Code is available at https://github.com/abbasmammadov/VFM
PDF12March 16, 2026