ChatPaper.aiChatPaper

MixFlow: 혼합 소스 분포를 통한 정류 흐름 개선

MixFlow: Mixed Source Distributions Improve Rectified Flows

April 10, 2026
저자: Nazir Nayal, Christopher Wewer, Jan Eric Lenssen
cs.AI

초록

확산 모델과 정류 흐름(rectified flows)과 같은 그 변형 모델들은 다양하고 고품질의 이미지를 생성하지만, 학습된 생성 경로의 높은 곡률로 인해 반복적 샘플링 속도가 느리다는 한계를 여전히 겪고 있습니다. 선행 연구에서 밝혀진 바와 같이, 높은 곡률의 주요 원인 중 하나는 소스 분포(표준 가우시안)와 데이터 분포 간의 독립성입니다. 본 연구에서는 이 한계를 해결하기 위해 상호 보완적인 두 가지 기여를 제안합니다. 먼저, 우리는 표준 가우시안 가정에서 벗어나 데이터 분포와의 정렬을 개선하기 위해 임의의 신호 κ를 소스 분포에 조건부로 연결하는 일반화된 formulation인 κ-FC를 도입합니다. 다음으로, 생성 경로의 곡률을 줄이고 샘플링 효율을 크게 향상시키는 간단하면서 효과적인 학습 전략인 MixFlow를 제시합니다. MixFlow는 고정된 무조건 분포와 κ-FC 기반 분포의 선형 혼합물에 대해 흐름 모델을 학습합니다. 이 간단한 혼합은 소스와 데이터 간의 정렬을 개선하고, 더 적은 샘플링 단계로 더 나은 생성 품질을 제공하며, 학습 수렴 속도를 상당히 가속화합니다. 고정된 샘플링 예산 하에서 우리의 학습 절차는 평균적으로 표준 정류 흐름 대비 FID에서 12%, 기존 베이스라인 대비 7% 생성 품질을 향상시켰습니다. 코드는 https://github.com/NazirNayal8/MixFlow{https://github.com/NazirNayal8/MixFlow}에서 확인할 수 있습니다.
English
Diffusion models and their variations, such as rectified flows, generate diverse and high-quality images, but they are still hindered by slow iterative sampling caused by the highly curved generative paths they learn. An important cause of high curvature, as shown by previous work, is independence between the source distribution (standard Gaussian) and the data distribution. In this work, we tackle this limitation by two complementary contributions. First, we attempt to break away from the standard Gaussian assumption by introducing κ-FC, a general formulation that conditions the source distribution on an arbitrary signal κ that aligns it better with the data distribution. Then, we present MixFlow, a simple but effective training strategy that reduces the generative path curvatures and considerably improves sampling efficiency. MixFlow trains a flow model on linear mixtures of a fixed unconditional distribution and a κ-FC-based distribution. This simple mixture improves the alignment between the source and data, provides better generation quality with less required sampling steps, and accelerates the training convergence considerably. On average, our training procedure improves the generation quality by 12\% in FID compared to standard rectified flow and 7\% compared to previous baselines under a fixed sampling budget. Code available at: https://github.com/NazirNayal8/MixFlow{https://github.com/NazirNayal8/MixFlow}
PDF12April 14, 2026