ChatPaper.aiChatPaper

Alineación de Espacios Latentes mediante Priores de Flujo

Aligning Latent Spaces with Flow Priors

June 5, 2025
Autores: Yizhuo Li, Yuying Ge, Yixiao Ge, Ying Shan, Ping Luo
cs.AI

Resumen

Este artículo presenta un marco novedoso para alinear espacios latentes aprendibles con distribuciones objetivo arbitrarias mediante el uso de modelos generativos basados en flujos como priores. Nuestro método primero preentrena un modelo de flujo sobre las características objetivo para capturar la distribución subyacente. Este modelo de flujo fijo luego regulariza el espacio latente a través de una pérdida de alineación, que reformula el objetivo de emparejamiento de flujos para tratar los latentes como objetivos de optimización. Formalmente demostramos que minimizar esta pérdida de alineación establece un objetivo sustituto computacionalmente manejable para maximizar una cota inferior variacional de la log-verosimilitud de los latentes bajo la distribución objetivo. Notablemente, el método propuesto elimina las evaluaciones computacionalmente costosas de verosimilitud y evita la resolución de ecuaciones diferenciales ordinarias durante la optimización. Como prueba de concepto, demostramos en un entorno controlado que el panorama de la pérdida de alineación se aproxima estrechamente a la log-verosimilitud negativa de la distribución objetivo. Además, validamos la efectividad de nuestro enfoque mediante experimentos de generación de imágenes a gran escala en ImageNet con diversas distribuciones objetivo, acompañados de discusiones detalladas y estudios de ablación. Con validación tanto teórica como empírica, nuestro marco abre un nuevo camino para la alineación de espacios latentes.
English
This paper presents a novel framework for aligning learnable latent spaces to arbitrary target distributions by leveraging flow-based generative models as priors. Our method first pretrains a flow model on the target features to capture the underlying distribution. This fixed flow model subsequently regularizes the latent space via an alignment loss, which reformulates the flow matching objective to treat the latents as optimization targets. We formally prove that minimizing this alignment loss establishes a computationally tractable surrogate objective for maximizing a variational lower bound on the log-likelihood of latents under the target distribution. Notably, the proposed method eliminates computationally expensive likelihood evaluations and avoids ODE solving during optimization. As a proof of concept, we demonstrate in a controlled setting that the alignment loss landscape closely approximates the negative log-likelihood of the target distribution. We further validate the effectiveness of our approach through large-scale image generation experiments on ImageNet with diverse target distributions, accompanied by detailed discussions and ablation studies. With both theoretical and empirical validation, our framework paves a new way for latent space alignment.
PDF251June 6, 2025