Terminale Geschwindigkeitsanpassung
Terminal Velocity Matching
November 24, 2025
papers.authors: Linqi Zhou, Mathias Parger, Ayaan Haque, Jiaming Song
cs.AI
papers.abstract
Wir stellen Terminal Velocity Matching (TVM) vor, eine Verallgemeinerung von Flow Matching, die hochauflösendes generatives Modellieren in einem oder wenigen Schritten ermöglicht. TVM modelliert den Übergang zwischen zwei beliebigen Diffusions-Zeitschritten und regularisiert sein Verhalten zum Endzeitpunkt und nicht zum Anfangszeitpunkt. Wir beweisen, dass TVM eine obere Schranke für die 2-Wasserstein-Distanz zwischen Daten- und Modellverteilungen liefert, sofern das Modell Lipschitz-stetig ist. Da Diffusion Transformer diese Eigenschaft jedoch nicht aufweisen, führen wir minimale architektonische Änderungen ein, die ein stabiles, einstufiges Training ermöglichen. Um TVM in der Praxis effizient zu gestalten, entwickeln wir einen fusionierten Attention-Kernel, der Backward-Passes für Jacobi-Vektor-Produkte unterstützt, die gut mit Transformer-Architekturen skalieren. Auf ImageNet-256x256 erreicht TVM einen FID-Wert von 3,29 mit einer einzigen Funktionsauswertung (NFE) und 1,99 FID mit 4 NFE. Ebenso erreicht es 4,32 FID mit 1 NFE und 2,94 FID mit 4 NFE auf ImageNet-512x512, was state-of-the-art Leistung für Ein- und Wenigschritt-Modelle aus reinem Training darstellt.
English
We propose Terminal Velocity Matching (TVM), a generalization of flow matching that enables high-fidelity one- and few-step generative modeling. TVM models the transition between any two diffusion timesteps and regularizes its behavior at its terminal time rather than at the initial time. We prove that TVM provides an upper bound on the 2-Wasserstein distance between data and model distributions when the model is Lipschitz continuous. However, since Diffusion Transformers lack this property, we introduce minimal architectural changes that achieve stable, single-stage training. To make TVM efficient in practice, we develop a fused attention kernel that supports backward passes on Jacobian-Vector Products, which scale well with transformer architectures. On ImageNet-256x256, TVM achieves 3.29 FID with a single function evaluation (NFE) and 1.99 FID with 4 NFEs. It similarly achieves 4.32 1-NFE FID and 2.94 4-NFE FID on ImageNet-512x512, representing state-of-the-art performance for one/few-step models from scratch.