플로우 사전 분포를 이용한 잠재 공간 정렬
Aligning Latent Spaces with Flow Priors
June 5, 2025
저자: Yizhuo Li, Yuying Ge, Yixiao Ge, Ying Shan, Ping Luo
cs.AI
초록
본 논문은 플로우 기반 생성 모델을 사전 분포로 활용하여 학습 가능한 잠재 공간을 임의의 목표 분포에 정렬하는 새로운 프레임워크를 제시합니다. 우리의 방법은 먼저 목표 특징에 대해 플로우 모델을 사전 학습하여 기저 분포를 포착합니다. 이 고정된 플로우 모델은 이후 정렬 손실을 통해 잠재 공간을 정규화하며, 이는 플로우 매칭 목표를 재구성하여 잠재 변수를 최적화 대상으로 취급합니다. 우리는 이 정렬 손실을 최소화하는 것이 목표 분포 하에서 잠재 변수의 로그 가능도의 변분 하한을 최대화하는 계산적으로 다루기 쉬운 대리 목표를 설정함을 공식적으로 증명합니다. 특히, 제안된 방법은 계산적으로 비용이 많이 드는 가능도 평가를 제거하고 최적화 과정에서 ODE(상미분 방정식) 해결을 피합니다. 개념 증명으로, 우리는 통제된 환경에서 정렬 손실 경관이 목표 분포의 음의 로그 가능도와 매우 근사함을 보여줍니다. 또한, 우리는 다양한 목표 분포를 가진 ImageNet에 대한 대규모 이미지 생성 실험을 통해 제안된 접근법의 효과를 검증하며, 상세한 논의와 절제 연구를 함께 제시합니다. 이론적 및 실증적 검증을 통해, 우리의 프레임워크는 잠재 공간 정렬을 위한 새로운 방식을 제시합니다.
English
This paper presents a novel framework for aligning learnable latent spaces to
arbitrary target distributions by leveraging flow-based generative models as
priors. Our method first pretrains a flow model on the target features to
capture the underlying distribution. This fixed flow model subsequently
regularizes the latent space via an alignment loss, which reformulates the flow
matching objective to treat the latents as optimization targets. We formally
prove that minimizing this alignment loss establishes a computationally
tractable surrogate objective for maximizing a variational lower bound on the
log-likelihood of latents under the target distribution. Notably, the proposed
method eliminates computationally expensive likelihood evaluations and avoids
ODE solving during optimization. As a proof of concept, we demonstrate in a
controlled setting that the alignment loss landscape closely approximates the
negative log-likelihood of the target distribution. We further validate the
effectiveness of our approach through large-scale image generation experiments
on ImageNet with diverse target distributions, accompanied by detailed
discussions and ablation studies. With both theoretical and empirical
validation, our framework paves a new way for latent space alignment.