FlashMotion: Video-opwekking met beperkte stappen en trajectcontrole
FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance
March 12, 2026
Auteurs: Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu
cs.AI
Samenvatting
Recente vooruitgang in traject-gestuurde videogeneratie heeft opmerkelijke vooruitgang geboekt. Eerdere methoden gebruiken voornamelijk adapter-gebaseerde architecturen voor precieze bewegingscontrole langs vooraf gedefinieerde trajecten. Echter, al deze methoden vertrouwen op een meerstaps denoiseringsproces, wat leidt tot aanzienlijke tijdsredundantie en rekenkosten. Hoewel bestaande videodistillatiemethoden multi-staps generators succesvol distilleren naar few-staps, resulteert een directe toepassing van deze benaderingen op traject-gestuurde videogeneratie in een merkbare achteruitgang in zowel videokwaliteit als trajectnauwkeurigheid. Om deze kloof te overbruggen, introduceren we FlashMotion, een nieuw trainingsraamwerk ontworpen voor few-staps traject-gestuurde videogeneratie. We trainen eerst een trajectadapter op een multi-staps videogenerator voor precieze trajectcontrole. Vervolgens distilleren we de generator naar een few-staps versie om videogeneratie te versnellen. Ten slotte finetunen we de adapter met een hybride strategie die diffusie- en adversariale doelstellingen combineert, om deze af te stemmen op de few-staps generator voor het produceren van hoogwaardige, trajectnauwkeurige video's. Voor evaluatie introduceren we FlashBench, een benchmark voor lange-sequentie traject-gestuurde videogeneratie die zowel videokwaliteit als trajectnauwkeurigheid meet bij variërende aantallen voorgrondobjecten. Experimenten op twee adapter-architecturen tonen aan dat FlashMotion zowel bestaande videodistillatiemethoden als eerdere multi-staps modellen overtreft in zowel visuele kwaliteit als trajectconsistentie.
English
Recent advances in trajectory-controllable video generation have achieved remarkable progress. Previous methods mainly use adapter-based architectures for precise motion control along predefined trajectories. However, all these methods rely on a multi-step denoising process, leading to substantial time redundancy and computational overhead. While existing video distillation methods successfully distill multi-step generators into few-step, directly applying these approaches to trajectory-controllable video generation results in noticeable degradation in both video quality and trajectory accuracy. To bridge this gap, we introduce FlashMotion, a novel training framework designed for few-step trajectory-controllable video generation. We first train a trajectory adapter on a multi-step video generator for precise trajectory control. Then, we distill the generator into a few-step version to accelerate video generation. Finally, we finetune the adapter using a hybrid strategy that combines diffusion and adversarial objectives, aligning it with the few-step generator to produce high-quality, trajectory-accurate videos. For evaluation, we introduce FlashBench, a benchmark for long-sequence trajectory-controllable video generation that measures both video quality and trajectory accuracy across varying numbers of foreground objects. Experiments on two adapter architectures show that FlashMotion surpasses existing video distillation methods and previous multi-step models in both visual quality and trajectory consistency.