CAR-Flow: 条件付き再パラメータ化によるソースとターゲットの整合化とフローマッチングの改善
CAR-Flow: Condition-Aware Reparameterization Aligns Source and Target for Better Flow Matching
September 23, 2025
著者: Chen Chen, Pengsheng Guo, Liangchen Song, Jiasen Lu, Rui Qian, Xinze Wang, Tsu-Jui Fu, Wei Liu, Yinfei Yang, Alex Schwing
cs.AI
要旨
条件付き生成モデリングは、データと条件のペアを含むサンプルから条件付きデータ分布を学習することを目指しています。これに対して、拡散モデルやフローベースの手法が注目すべき結果を達成しています。これらの手法では、条件を無視した初期の標準ガウスノイズを条件付きデータ分布に変換するために、学習された(フロー)モデルを使用します。そのため、モデルは質量輸送と条件注入の両方を学習する必要があります。モデルの要求を緩和するために、我々はCondition-Aware Reparameterization for Flow Matching(CAR-Flow)を提案します。これは、ソース分布、ターゲット分布、またはその両方を条件付けする軽量な学習済みシフトです。これらの分布を再配置することで、CAR-Flowはモデルが学習する必要のある確率経路を短縮し、実際のトレーニングを高速化します。低次元の合成データでは、CARの効果を可視化し定量化します。高次元の自然画像データ(ImageNet-256)では、SiT-XL/2にCAR-Flowを適用することで、FIDを2.07から1.68に減少させ、追加パラメータを0.6%未満に抑えました。
English
Conditional generative modeling aims to learn a conditional data distribution
from samples containing data-condition pairs. For this, diffusion and
flow-based methods have attained compelling results. These methods use a
learned (flow) model to transport an initial standard Gaussian noise that
ignores the condition to the conditional data distribution. The model is hence
required to learn both mass transport and conditional injection. To ease the
demand on the model, we propose Condition-Aware Reparameterization for Flow
Matching (CAR-Flow) -- a lightweight, learned shift that conditions the source,
the target, or both distributions. By relocating these distributions, CAR-Flow
shortens the probability path the model must learn, leading to faster training
in practice. On low-dimensional synthetic data, we visualize and quantify the
effects of CAR. On higher-dimensional natural image data (ImageNet-256),
equipping SiT-XL/2 with CAR-Flow reduces FID from 2.07 to 1.68, while
introducing less than 0.6% additional parameters.