ChatPaper.aiChatPaper

변분 흐름 맵: 원스텝 조건부 생성을 위한 노이즈 활용

Variational Flow Maps: Make Some Noise for One-Step Conditional Generation

March 7, 2026
저자: Abbas Mammadov, So Takao, Bohan Chen, Ricardo Baptista, Morteza Mardani, Yee Whye Teh, Julius Berner
cs.AI

초록

플로우 맵은 단일 순방향 전달로 고품질 이미지 생성을 가능하게 합니다. 그러나 반복적 확산 모델과 달리 명시적인 샘플링 궤적이 부족하여 조건부 생성 및 역문제 해결을 위한 외부 제약 조건 적용이 어렵습니다. 본 연구에서는 조건부 샘플링을 위한 프레임워크인 Variational Flow Maps(VFM)를 제안하며, 이는 조건화의 관점을 "샘플링 경로 안내"에서 "적절한 초기 노이즈 학습"으로 전환합니다. 구체적으로, 주어진 관측값에 대해 노이즈 어댑터 모델을 학습하여 노이즈 분포를 출력하고, 이를 플로우 맵을 통해 데이터 공간으로 매핑한 후 샘플이 관측값과 데이터 사전 분포를 준수하도록 합니다. 이를 위해 노이즈 어댑터와 플로우 맵을 공동으로 훈련하여 노이즈-데이터 정렬을 개선하는 원리 기반 변분 목적 함수를 개발하였으며, 이를 통해 복잡한 데이터 사후 분포에서의 샘플링이 간단한 어댑터로 달성됩니다. 다양한 역문제에 대한 실험 결과, VFM은 단일(또는 소수) 단계로 잘 보정된 조건부 샘플을 생성합니다. ImageNet에서 VFM은 경쟁력 있는 충실도를 유지하면서 대안적인 반복적 확산/플로우 모델 대비 샘플링 속도를 수 orders of magnitude 가속화합니다. 코드는 https://github.com/abbasmammadov/VFM에서 확인할 수 있습니다.
English
Flow maps enable high-quality image generation in a single forward pass. However, unlike iterative diffusion models, their lack of an explicit sampling trajectory impedes incorporating external constraints for conditional generation and solving inverse problems. We put forth Variational Flow Maps, a framework for conditional sampling that shifts the perspective of conditioning from "guiding a sampling path", to that of "learning the proper initial noise". Specifically, given an observation, we seek to learn a noise adapter model that outputs a noise distribution, so that after mapping to the data space via flow map, the samples respect the observation and data prior. To this end, we develop a principled variational objective that jointly trains the noise adapter and the flow map, improving noise-data alignment, such that sampling from complex data posterior is achieved with a simple adapter. Experiments on various inverse problems show that VFMs produce well-calibrated conditional samples in a single (or few) steps. For ImageNet, VFM attains competitive fidelity while accelerating the sampling by orders of magnitude compared to alternative iterative diffusion/flow models. Code is available at https://github.com/abbasmammadov/VFM
PDF12March 16, 2026