ChatPaper.aiChatPaper

Attribuzione del Movimento per la Generazione Video

Motion Attribution for Video Generation

January 13, 2026
Autori: Xindi Wu, Despoina Paschalidou, Jun Gao, Antonio Torralba, Laura Leal-Taixé, Olga Russakovsky, Sanja Fidler, Jonathan Lorraine
cs.AI

Abstract

Nonostante i rapidi progressi dei modelli di generazione video, il ruolo dei dati nell'influenzare il movimento è poco compreso. Presentiamo Motive (MOTIon attribution for Video gEneration), un framework di attribuzione dei dati basato sui gradienti e incentrato sul movimento, che si adatta a moderni dataset e modelli video di grandi dimensioni e alta qualità. Lo utilizziamo per studiare quali clip di fine-tuning migliorano o peggiorano le dinamiche temporali. Motive isola le dinamiche temporali dall'aspetto statico tramite maschere di perdita pesate sul movimento, ottenendo un calcolo dell'influenza specifico per il movimento efficiente e scalabile. Sui modelli text-to-video, Motive identifica le clip che influenzano fortemente il movimento e guida la cura dei dati che migliora la coerenza temporale e la plausibilità fisica. Con i dati ad alta influenza selezionati da Motive, il nostro metodo migliora sia la fluidità del movimento che il grado dinamico su VBench, raggiungendo un tasso di preferenza umana del 74,1% rispetto al modello base preaddestrato. A nostra conoscenza, questo è il primo framework che attribuisce il movimento anziché l'aspetto visivo nei modelli generativi video e lo utilizza per curare i dati di fine-tuning.
English
Despite the rapid progress of video generation models, the role of data in influencing motion is poorly understood. We present Motive (MOTIon attribution for Video gEneration), a motion-centric, gradient-based data attribution framework that scales to modern, large, high-quality video datasets and models. We use this to study which fine-tuning clips improve or degrade temporal dynamics. Motive isolates temporal dynamics from static appearance via motion-weighted loss masks, yielding efficient and scalable motion-specific influence computation. On text-to-video models, Motive identifies clips that strongly affect motion and guides data curation that improves temporal consistency and physical plausibility. With Motive-selected high-influence data, our method improves both motion smoothness and dynamic degree on VBench, achieving a 74.1% human preference win rate compared with the pretrained base model. To our knowledge, this is the first framework to attribute motion rather than visual appearance in video generative models and to use it to curate fine-tuning data.
PDF702February 11, 2026