Bewegungsattribution für die Videogenerierung
Motion Attribution for Video Generation
January 13, 2026
papers.authors: Xindi Wu, Despoina Paschalidou, Jun Gao, Antonio Torralba, Laura Leal-Taixé, Olga Russakovsky, Sanja Fidler, Jonathan Lorraine
cs.AI
papers.abstract
Trotz der rasanten Fortschritte bei Videogenerierungsmodellen ist die Rolle von Daten für die Beeinflussung von Bewegung kaum verstanden. Wir stellen Motive (MOTIon attribution for Video gEneration) vor, einen bewegungszentrierten, gradientenbasierten Datenattribuierungsrahmen, der sich auf moderne, große, hochwertige Videodatensätze und -modelle skalieren lässt. Wir nutzen dies, um zu untersuchen, welche Fine-Tuning-Clips die zeitliche Dynamik verbessern oder verschlechtern. Motive isoliert zeitliche Dynamik von statischem Erscheinungsbild durch bewegungsgewichtete Verlustmasken, was eine effiziente und skalierbare bewegungsspezifische Einflussberechnung ermöglicht. Bei Text-zu-Video-Modellen identifiziert Motive Clips, die Bewegung stark beeinflussen, und leitet die Datenkuratierung, die zeitliche Konsistenz und physikalische Plausibilität verbessert. Mit Motive-ausgewählten Hochinflusssdaten verbessert unsere Methode sowohl die Bewegungsglätte als auch den Dynamikgrad auf VBench und erreicht eine menschliche Präferenz-Rate von 74,1 % im Vergleich zum vortrainierten Basismodell. Unseres Wissens ist dies der erste Rahmen, der Bewegung anstelle des visuellen Erscheinungsbildes in videogenerierenden Modellen attribuiert und dies zur Kuratierung von Fine-Tuning-Daten nutzt.
English
Despite the rapid progress of video generation models, the role of data in influencing motion is poorly understood. We present Motive (MOTIon attribution for Video gEneration), a motion-centric, gradient-based data attribution framework that scales to modern, large, high-quality video datasets and models. We use this to study which fine-tuning clips improve or degrade temporal dynamics. Motive isolates temporal dynamics from static appearance via motion-weighted loss masks, yielding efficient and scalable motion-specific influence computation. On text-to-video models, Motive identifies clips that strongly affect motion and guides data curation that improves temporal consistency and physical plausibility. With Motive-selected high-influence data, our method improves both motion smoothness and dynamic degree on VBench, achieving a 74.1% human preference win rate compared with the pretrained base model. To our knowledge, this is the first framework to attribute motion rather than visual appearance in video generative models and to use it to curate fine-tuning data.