Variationele Stroomkaarten: Maak Lawaai voor Eénstaps Conditionele Generatie
Variational Flow Maps: Make Some Noise for One-Step Conditional Generation
March 7, 2026
Auteurs: Abbas Mammadov, So Takao, Bohan Chen, Ricardo Baptista, Morteza Mardani, Yee Whye Teh, Julius Berner
cs.AI
Samenvatting
Flowmaps maken hoogwaardige beeldgeneratie mogelijk in een enkele voorwaartse doorloop. In tegenstelling tot iteratieve diffusiemodellen belemmert hun gebrek aan een expliciet samplingstraject echter het incorporeren van externe beperkingen voor conditionele generatie en het oplossen van inverse problemen. Wij presenteren Variational Flow Maps, een raamwerk voor conditionele sampling dat het perspectief van conditionering verschuift van het "geleiden van een samplingpad" naar het "leren van het juiste initiële ruis". Specifiek trachten wij, gegeven een observatie, een ruisadaptermodel te leren dat een ruisverdeling uitvoert, zodat na mapping naar de dataruimte via het flowmap, de samples de observatie en de data prior respecteren. Hiertoe ontwikkelen wij een principieel variationeel doel dat de ruisadapter en het flowmap gezamenlijk traint, waardoor de ruis-data-uitlijning verbetert, zodat sampling uit een complexe data posterior wordt bereikt met een eenvoudige adapter. Experimenten met diverse inverse problemen tonen aan dat VFM's goed gekalibreerde conditionele samples produceren in één (of enkele) stappen. Voor ImageNet bereikt VFM een competitieve kwaliteit terwijl de sampling met ordes van grootte wordt versneld in vergelijking met alternatieve iteratieve diffusie-/flowmodellen. Code is beschikbaar op https://github.com/abbasmammadov/VFM.
English
Flow maps enable high-quality image generation in a single forward pass. However, unlike iterative diffusion models, their lack of an explicit sampling trajectory impedes incorporating external constraints for conditional generation and solving inverse problems. We put forth Variational Flow Maps, a framework for conditional sampling that shifts the perspective of conditioning from "guiding a sampling path", to that of "learning the proper initial noise". Specifically, given an observation, we seek to learn a noise adapter model that outputs a noise distribution, so that after mapping to the data space via flow map, the samples respect the observation and data prior. To this end, we develop a principled variational objective that jointly trains the noise adapter and the flow map, improving noise-data alignment, such that sampling from complex data posterior is achieved with a simple adapter. Experiments on various inverse problems show that VFMs produce well-calibrated conditional samples in a single (or few) steps. For ImageNet, VFM attains competitive fidelity while accelerating the sampling by orders of magnitude compared to alternative iterative diffusion/flow models. Code is available at https://github.com/abbasmammadov/VFM