FlashMotion : Génération vidéo contrôlable en quelques étapes avec guidage par trajectoire
FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance
March 12, 2026
Auteurs: Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu
cs.AI
Résumé
Les progrès récents dans la génération de vidéos à trajectoire contrôlable ont réalisé des avancées remarquables. Les méthodes antérieures utilisent principalement des architectures à base d'adaptateurs pour un contrôle précis du mouvement le long de trajectoires prédéfinies. Cependant, toutes ces méthodes s'appuient sur un processus de débruitage multi-étapes, entraînant une redondance temporelle substantielle et une surcharge computationnelle importante. Bien que les méthodes existantes de distillation vidéo parviennent à distiller des générateurs multi-étapes en versions à peu d'étapes, leur application directe à la génération de vidéos à trajectoire contrôlable se solde par une dégradation notable de la qualité vidéo et de la précision trajectoire. Pour combler cette lacune, nous présentons FlashMotion, un nouveau cadre d'entraînement conçu pour la génération de vidéos à trajectoire contrôlable en peu d'étapes. Nous entraînons d'abord un adaptateur de trajectoire sur un générateur vidéo multi-étapes pour un contrôle trajectoire précis. Ensuite, nous distillons le générateur en une version à peu d'étapes pour accélérer la génération vidéo. Enfin, nous affinons l'adaptateur à l'aide d'une stratégie hybride combinant des objectifs de diffusion et adversariaux, l'alignant ainsi sur le générateur à peu d'étapes pour produire des vidéos de haute qualité et à la trajectoire précise. Pour l'évaluation, nous introduisons FlashBench, un benchmark pour la génération de vidéos à trajectoire contrôlable en séquences longues, qui mesure à la fois la qualité vidéo et la précision trajectoire pour différents nombres d'objets au premier plan. Les expériences sur deux architectures d'adaptateurs montrent que FlashMotion surpasse les méthodes existantes de distillation vidéo et les modèles multi-étapes antérieurs, tant en qualité visuelle qu'en cohérence trajectoire.
English
Recent advances in trajectory-controllable video generation have achieved remarkable progress. Previous methods mainly use adapter-based architectures for precise motion control along predefined trajectories. However, all these methods rely on a multi-step denoising process, leading to substantial time redundancy and computational overhead. While existing video distillation methods successfully distill multi-step generators into few-step, directly applying these approaches to trajectory-controllable video generation results in noticeable degradation in both video quality and trajectory accuracy. To bridge this gap, we introduce FlashMotion, a novel training framework designed for few-step trajectory-controllable video generation. We first train a trajectory adapter on a multi-step video generator for precise trajectory control. Then, we distill the generator into a few-step version to accelerate video generation. Finally, we finetune the adapter using a hybrid strategy that combines diffusion and adversarial objectives, aligning it with the few-step generator to produce high-quality, trajectory-accurate videos. For evaluation, we introduce FlashBench, a benchmark for long-sequence trajectory-controllable video generation that measures both video quality and trajectory accuracy across varying numbers of foreground objects. Experiments on two adapter architectures show that FlashMotion surpasses existing video distillation methods and previous multi-step models in both visual quality and trajectory consistency.