Correspondance de la Vitesse Limite
Terminal Velocity Matching
November 24, 2025
papers.authors: Linqi Zhou, Mathias Parger, Ayaan Haque, Jiaming Song
cs.AI
papers.abstract
Nous proposons Terminal Velocity Matching (TVM), une généralisation du *flow matching* qui permet une modélisation générative haute fidélité en une ou quelques étapes. TVM modélise la transition entre deux pas de diffusion quelconques et régularise son comportement au temps terminal plutôt qu'au temps initial. Nous démontrons que TVM fournit une borne supérieure sur la distance de Wasserstein-2 entre les distributions de données et de modèles lorsque le modèle est Lipschitz-continu. Cependant, puisque les *Diffusion Transformers* ne possèdent pas cette propriété, nous introduisons des modifications architecturales minimales permettant un entraînement stable en une seule étape. Pour rendre TVM efficace en pratique, nous développons un noyau d'attention fusionné qui prend en charge les passes arrière sur les produits Jacobien-Vecteur, lesquels s'adaptent bien aux architectures de transformateurs. Sur ImageNet-256x256, TVM atteint un FID de 3,29 avec une seule évaluation de fonction (NFE) et un FID de 1,99 avec 4 NFE. Il atteint de même un FID à 1 NFE de 4,32 et un FID à 4 NFE de 2,94 sur ImageNet-512x512, ce qui représente l'état de l'art pour les modèles en une/quelques étapes entraînés à partir de zéro.
English
We propose Terminal Velocity Matching (TVM), a generalization of flow matching that enables high-fidelity one- and few-step generative modeling. TVM models the transition between any two diffusion timesteps and regularizes its behavior at its terminal time rather than at the initial time. We prove that TVM provides an upper bound on the 2-Wasserstein distance between data and model distributions when the model is Lipschitz continuous. However, since Diffusion Transformers lack this property, we introduce minimal architectural changes that achieve stable, single-stage training. To make TVM efficient in practice, we develop a fused attention kernel that supports backward passes on Jacobian-Vector Products, which scale well with transformer architectures. On ImageNet-256x256, TVM achieves 3.29 FID with a single function evaluation (NFE) and 1.99 FID with 4 NFEs. It similarly achieves 4.32 1-NFE FID and 2.94 4-NFE FID on ImageNet-512x512, representing state-of-the-art performance for one/few-step models from scratch.