潜在空間をフロープライアで整合させる
Aligning Latent Spaces with Flow Priors
June 5, 2025
著者: Yizhuo Li, Yuying Ge, Yixiao Ge, Ying Shan, Ping Luo
cs.AI
要旨
本論文では、フローベース生成モデルを事前分布として活用し、学習可能な潜在空間を任意の目標分布に整合させる新しいフレームワークを提案する。本手法ではまず、目標特徴量に対してフローモデルを事前学習し、基盤となる分布を捉える。この固定されたフローモデルはその後、潜在空間を整合損失によって正則化する。この整合損失は、潜在変数を最適化対象として扱うようにフローマッチング目的関数を再定式化したものである。我々は、この整合損失を最小化することが、目標分布下での潜在変数の対数尤度の変分下限を最大化する計算可能な代理目的関数を確立することを理論的に証明する。特に、提案手法は計算コストの高い尤度評価を排除し、最適化中にODEを解くことを回避する。概念実証として、制御された設定下で整合損失のランドスケープが目標分布の負の対数尤度に極めて近いことを示す。さらに、ImageNetを用いた大規模画像生成実験において、多様な目標分布に対する本手法の有効性を検証し、詳細な議論とアブレーション研究を実施する。理論的および実証的な検証を通じて、本フレームワークは潜在空間整合の新たな道を切り開くものである。
English
This paper presents a novel framework for aligning learnable latent spaces to
arbitrary target distributions by leveraging flow-based generative models as
priors. Our method first pretrains a flow model on the target features to
capture the underlying distribution. This fixed flow model subsequently
regularizes the latent space via an alignment loss, which reformulates the flow
matching objective to treat the latents as optimization targets. We formally
prove that minimizing this alignment loss establishes a computationally
tractable surrogate objective for maximizing a variational lower bound on the
log-likelihood of latents under the target distribution. Notably, the proposed
method eliminates computationally expensive likelihood evaluations and avoids
ODE solving during optimization. As a proof of concept, we demonstrate in a
controlled setting that the alignment loss landscape closely approximates the
negative log-likelihood of the target distribution. We further validate the
effectiveness of our approach through large-scale image generation experiments
on ImageNet with diverse target distributions, accompanied by detailed
discussions and ablation studies. With both theoretical and empirical
validation, our framework paves a new way for latent space alignment.