ChatPaper.aiChatPaper

CAR-Flow: 条件付き再パラメータ化によるソースとターゲットの整合化とフローマッチングの改善

CAR-Flow: Condition-Aware Reparameterization Aligns Source and Target for Better Flow Matching

September 23, 2025
著者: Chen Chen, Pengsheng Guo, Liangchen Song, Jiasen Lu, Rui Qian, Xinze Wang, Tsu-Jui Fu, Wei Liu, Yinfei Yang, Alex Schwing
cs.AI

要旨

条件付き生成モデリングは、データと条件のペアを含むサンプルから条件付きデータ分布を学習することを目指しています。これに対して、拡散モデルやフローベースの手法が注目すべき結果を達成しています。これらの手法では、条件を無視した初期の標準ガウスノイズを条件付きデータ分布に変換するために、学習された(フロー)モデルを使用します。そのため、モデルは質量輸送と条件注入の両方を学習する必要があります。モデルの要求を緩和するために、我々はCondition-Aware Reparameterization for Flow Matching(CAR-Flow)を提案します。これは、ソース分布、ターゲット分布、またはその両方を条件付けする軽量な学習済みシフトです。これらの分布を再配置することで、CAR-Flowはモデルが学習する必要のある確率経路を短縮し、実際のトレーニングを高速化します。低次元の合成データでは、CARの効果を可視化し定量化します。高次元の自然画像データ(ImageNet-256)では、SiT-XL/2にCAR-Flowを適用することで、FIDを2.07から1.68に減少させ、追加パラメータを0.6%未満に抑えました。
English
Conditional generative modeling aims to learn a conditional data distribution from samples containing data-condition pairs. For this, diffusion and flow-based methods have attained compelling results. These methods use a learned (flow) model to transport an initial standard Gaussian noise that ignores the condition to the conditional data distribution. The model is hence required to learn both mass transport and conditional injection. To ease the demand on the model, we propose Condition-Aware Reparameterization for Flow Matching (CAR-Flow) -- a lightweight, learned shift that conditions the source, the target, or both distributions. By relocating these distributions, CAR-Flow shortens the probability path the model must learn, leading to faster training in practice. On low-dimensional synthetic data, we visualize and quantify the effects of CAR. On higher-dimensional natural image data (ImageNet-256), equipping SiT-XL/2 with CAR-Flow reduces FID from 2.07 to 1.68, while introducing less than 0.6% additional parameters.
PDF42September 24, 2025