ChatPaper.aiChatPaper

Rückwärtsfließen: Verbesserung Normalisierender Flüsse durch inverse Repräsentationsangleichung

Flowing Backwards: Improving Normalizing Flows via Reverse Representation Alignment

November 27, 2025
papers.authors: Yang Chen, Xiaowei Xu, Shuai Wang, Chenhui Zhu, Ruxue Wen, Xubin Li, Tiezheng Ge, Limin Wang
cs.AI

papers.abstract

Normalizing Flows (NFs) sind eine Klasse von generativen Modellen, die sich durch eine mathematisch invertierbare Architektur auszeichnen. Dabei transformiert der Vorwärtsdurchlauf Daten in einen latenten Raum zur Dichteschätzung, während der Rückwärtsdurchlauf neue Stichproben aus diesem Raum erzeugt. Diese Eigenschaft schafft eine intrinsische Synergie zwischen Repräsentationslernen und Datengenerierung. Die generative Qualität standardmäßiger NFs wird jedoch durch schwache semantische Repräsentationen infolge der Log-Likelihood-Optimierung begrenzt. Um dies zu beheben, schlagen wir eine neuartige Alignment-Strategie vor, die die Invertierbarkeit von NFs kreativ nutzt: Anstatt den Vorwärtsdurchlauf zu regularisieren, alignieren wir die Zwischenmerkmale des generativen (Rückwärts-)Durchlaufs mit Repräsentationen eines leistungsstarken Vision-Foundation-Modells, was eine überlegene Wirksamkeit gegenüber naivem Alignment demonstriert. Zusätzlich führen wir einen neuartigen, trainingsfreien Optimierungsalgorithmus zur Laufzeit für Klassifikationsaufgaben ein, der eine intrinsischere Bewertung des in der NF eingebetteten semantischen Wissens ermöglicht. Umfassende Experimente zeigen, dass unser Ansatz das Training von NFs um mehr als das 3,3-fache beschleunigt und gleichzeitig signifikante Verbesserungen sowohl in der generativen Qualität als auch in der Klassifikationsgenauigkeit erzielt. Neue state-of-the-art Ergebnisse für NFs werden auf ImageNet 64×64 und 256×256 erreicht. Unser Code ist unter https://github.com/MCG-NJU/FlowBack verfügbar.
English
Normalizing Flows (NFs) are a class of generative models distinguished by a mathematically invertible architecture, where the forward pass transforms data into a latent space for density estimation, and the reverse pass generates new samples from this space. This characteristic creates an intrinsic synergy between representation learning and data generation. However, the generative quality of standard NFs is limited by poor semantic representations from log-likelihood optimization. To remedy this, we propose a novel alignment strategy that creatively leverages the invertibility of NFs: instead of regularizing the forward pass, we align the intermediate features of the generative (reverse) pass with representations from a powerful vision foundation model, demonstrating superior effectiveness over naive alignment. We also introduce a novel training-free, test-time optimization algorithm for classification, which provides a more intrinsic evaluation of the NF's embedded semantic knowledge. Comprehensive experiments demonstrate that our approach accelerates the training of NFs by over 3.3times, while simultaneously delivering significant improvements in both generative quality and classification accuracy. New state-of-the-art results for NFs are established on ImageNet 64times64 and 256times256. Our code is available at https://github.com/MCG-NJU/FlowBack.
PDF91December 5, 2025