ChatPaper.aiChatPaper

FlashMotion: Geração de Vídeo Controlável em Poucos Passos com Orientação por Trajetória

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

March 12, 2026
Autores: Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu
cs.AI

Resumo

Os recentes avanços na geração de vídeo com controlo de trajetória têm alcançado progressos notáveis. Os métodos anteriores utilizam principalmente arquiteturas baseadas em adaptadores para um controlo preciso do movimento ao longo de trajetórias predefinidas. No entanto, todos estes métodos dependem de um processo de eliminação de ruído em múltiplas etapas, resultando numa substancial redundância temporal e sobrecarga computacional. Embora os métodos existentes de destilação de vídeo consigam destilar geradores multi-etapa em versões de poucas etapas, a aplicação direta destas abordagens à geração de vídeo com controlo de trajetória resulta numa degradação perceptível tanto na qualidade do vídeo como na precisão da trajetória. Para colmatar esta lacuna, introduzimos o FlashMotion, uma nova estrutura de treino concebida para a geração de vídeo com controlo de trajetória em poucas etapas. Primeiro, treinamos um adaptador de trajetória num gerador de vídeo multi-etapa para um controlo preciso da trajetória. Em seguida, destilamos o gerador numa versão de poucas etapas para acelerar a geração de vídeo. Por fim, afinamos o adaptador usando uma estratégia híbrida que combina objetivos de difusão e adversariais, alinhando-o com o gerador de poucas etapas para produzir vídeos de alta qualidade e com precisão de trajetória. Para avaliação, introduzimos o FlashBench, um benchmark para geração de vídeo com controlo de trajetória em sequências longas, que mede tanto a qualidade do vídeo como a precisão da trajetória com diferentes números de objetos em primeiro plano. Experiências em duas arquiteturas de adaptadores mostram que o FlashMotion supera os métodos existentes de destilação de vídeo e os modelos multi-etapa anteriores, tanto na qualidade visual como na consistência da trajetória.
English
Recent advances in trajectory-controllable video generation have achieved remarkable progress. Previous methods mainly use adapter-based architectures for precise motion control along predefined trajectories. However, all these methods rely on a multi-step denoising process, leading to substantial time redundancy and computational overhead. While existing video distillation methods successfully distill multi-step generators into few-step, directly applying these approaches to trajectory-controllable video generation results in noticeable degradation in both video quality and trajectory accuracy. To bridge this gap, we introduce FlashMotion, a novel training framework designed for few-step trajectory-controllable video generation. We first train a trajectory adapter on a multi-step video generator for precise trajectory control. Then, we distill the generator into a few-step version to accelerate video generation. Finally, we finetune the adapter using a hybrid strategy that combines diffusion and adversarial objectives, aligning it with the few-step generator to produce high-quality, trajectory-accurate videos. For evaluation, we introduce FlashBench, a benchmark for long-sequence trajectory-controllable video generation that measures both video quality and trajectory accuracy across varying numbers of foreground objects. Experiments on two adapter architectures show that FlashMotion surpasses existing video distillation methods and previous multi-step models in both visual quality and trajectory consistency.
PDF52March 24, 2026