ChatPaper.aiChatPaper

Bewegingstoedeling voor Videogeneratie

Motion Attribution for Video Generation

January 13, 2026
Auteurs: Xindi Wu, Despoina Paschalidou, Jun Gao, Antonio Torralba, Laura Leal-Taixé, Olga Russakovsky, Sanja Fidler, Jonathan Lorraine
cs.AI

Samenvatting

Ondanks de snelle vooruitgang van videogeneratiemodellen, is de rol van data bij het beïnvloeden van beweging nog slecht begrepen. Wij presenteren Motive (MOTIon attribution for Video gEneration), een beweging-gericht, op gradiënten gebaseerd raamwerk voor data-attributie dat schaalbaar is voor moderne, grootschalige, hoogwaardige videodatasets en -modellen. We gebruiken dit om te bestuderen welke fine-tuning clips temporele dynamiek verbeteren of verslechteren. Motive isoleert temporele dynamiek van statisch uiterlijk via beweging-gewogen verliesmaskers, wat efficiënte en schaalbare berekening van beweging-specifieke invloed oplevert. Bij tekst-naar-videomodellen identificeert Motive clips die de beweging sterk beïnvloeden en begeleidt het datacuratie die de temporele consistentie en fysieke geloofwaardigheid verbetert. Met door Motive geselecteerde data met hoge invloed, verbetert onze methode zowel de bewegingsvloeiendheid als de dynamische graad op VBench, met een menselijke voorkeurs-winstpercentage van 74,1% vergeleken met het vooraf getrainde basismodel. Voor zover wij weten, is dit het eerste raamwerk dat beweging in plaats van visueel uiterlijk toeschrijft in videogeneratieve modellen en dit gebruikt om fine-tuning data te cureren.
English
Despite the rapid progress of video generation models, the role of data in influencing motion is poorly understood. We present Motive (MOTIon attribution for Video gEneration), a motion-centric, gradient-based data attribution framework that scales to modern, large, high-quality video datasets and models. We use this to study which fine-tuning clips improve or degrade temporal dynamics. Motive isolates temporal dynamics from static appearance via motion-weighted loss masks, yielding efficient and scalable motion-specific influence computation. On text-to-video models, Motive identifies clips that strongly affect motion and guides data curation that improves temporal consistency and physical plausibility. With Motive-selected high-influence data, our method improves both motion smoothness and dynamic degree on VBench, achieving a 74.1% human preference win rate compared with the pretrained base model. To our knowledge, this is the first framework to attribute motion rather than visual appearance in video generative models and to use it to curate fine-tuning data.
PDF61January 15, 2026