Mappe di Flusso Variazionali: Introduciamo Rumore per la Generazione Condizionata in un Singolo Passo
Variational Flow Maps: Make Some Noise for One-Step Conditional Generation
March 7, 2026
Autori: Abbas Mammadov, So Takao, Bohan Chen, Ricardo Baptista, Morteza Mardani, Yee Whye Teh, Julius Berner
cs.AI
Abstract
Le mappe di flusso consentono la generazione di immagini di alta qualità in un singolo passaggio in avanti. Tuttavia, a differenza dei modelli di diffusione iterativi, la loro mancanza di una traiettoria di campionamento esplicita impedisce l'incorporazione di vincoli esterni per la generazione condizionata e la risoluzione di problemi inversi. Proponiamo le Mappe di Flusso Variazionali (Variational Flow Maps, VFMs), un framework per il campionamento condizionato che sposta la prospettiva del condizionamento dal "guidare un percorso di campionamento" a quella di "apprendere il rumore iniziale appropriato". Nello specifico, data un'osservazione, cerchiamo di apprendere un modello adattatore di rumore che restituisca una distribuzione di rumore, in modo che, dopo la mappatura nello spazio dei dati tramite la mappa di flusso, i campioni rispettino l'osservazione e il precedente sui dati. A tal fine, sviluppiamo un obiettivo variazionale basato su principi che addestra congiuntamente l'adattatore di rumore e la mappa di flusso, migliorando l'allineamento rumore-dati, in modo che il campionamento da un posterior di dati complesso sia ottenuto con un semplice adattatore. Esperimenti su vari problemi inversi mostrano che le VFMs producono campioni condizionati ben calibrati in uno (o pochi) passi. Per ImageNet, le VFMs raggiungono una fedeltà competitiva accelerando il campionamento di ordini di grandezza rispetto ad alternative iterative basate su modelli di diffusione/flusso. Il codice è disponibile all'indirizzo https://github.com/abbasmammadov/VFM
English
Flow maps enable high-quality image generation in a single forward pass. However, unlike iterative diffusion models, their lack of an explicit sampling trajectory impedes incorporating external constraints for conditional generation and solving inverse problems. We put forth Variational Flow Maps, a framework for conditional sampling that shifts the perspective of conditioning from "guiding a sampling path", to that of "learning the proper initial noise". Specifically, given an observation, we seek to learn a noise adapter model that outputs a noise distribution, so that after mapping to the data space via flow map, the samples respect the observation and data prior. To this end, we develop a principled variational objective that jointly trains the noise adapter and the flow map, improving noise-data alignment, such that sampling from complex data posterior is achieved with a simple adapter. Experiments on various inverse problems show that VFMs produce well-calibrated conditional samples in a single (or few) steps. For ImageNet, VFM attains competitive fidelity while accelerating the sampling by orders of magnitude compared to alternative iterative diffusion/flow models. Code is available at https://github.com/abbasmammadov/VFM