ChatPaper.aiChatPaper

MotionEdit : Évaluation et apprentissage de l'édition d'images centrée sur le mouvement

MotionEdit: Benchmarking and Learning Motion-Centric Image Editing

December 11, 2025
papers.authors: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI

papers.abstract

Nous présentons MotionEdit, un nouveau jeu de données pour l'édition d'images centrée sur le mouvement – la tâche consistant à modifier les actions et interactions du sujet tout en préservant l'identité, la structure et la plausibilité physique. Contrairement aux jeux de données d'édition d'images existants qui se concentrent sur des modifications d'apparence statique ou ne contiennent que des éditions de mouvement éparses et de faible qualité, MotionEdit fournit des paires d'images haute fidélité décrivant des transformations de mouvement réalistes, extraites et vérifiées à partir de vidéos continues. Cette nouvelle tâche est non seulement scientifiquement difficile, mais aussi pratiquement significative, alimentant des applications en aval telles que la synthèse vidéo contrôlée par images clés et l'animation. Pour évaluer les performances des modèles sur cette nouvelle tâche, nous présentons MotionEdit-Bench, un benchmark qui met les modèles au défi avec des éditions centrées sur le mouvement et mesure leurs performances à l'aide de métriques génératives, discriminatives et basées sur les préférences. Les résultats du benchmark révèlent que l'édition de mouvement reste extrêmement difficile pour les modèles d'édition par diffusion actuels les plus performants. Pour combler cette lacune, nous proposons MotionNFT (Motion-guided Negative-aware Fine Tuning), un cadre d'après-entraînement qui calcule des récompenses d'alignement de mouvement basées sur la correspondance entre le flux de mouvement des images d'entrée et des images éditées par le modèle et le mouvement de référence, guidant ainsi les modèles vers des transformations de mouvement précises. Des expériences approfondies sur FLUX.1 Kontext et Qwen-Image-Edit montrent que MotionNFT améliore constamment la qualité d'édition et la fidélité du mouvement des deux modèles de base sur la tâche d'édition de mouvement sans sacrifier leur capacité d'édition générale, démontrant ainsi son efficacité.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation. To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.
PDF233December 13, 2025