ChatPaper.aiChatPaper

MotionEdit: Benchmarken en Leren van Bewegingsgerichte Afbeeldingsbewerking

MotionEdit: Benchmarking and Learning Motion-Centric Image Editing

December 11, 2025
Auteurs: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI

Samenvatting

Wij introduceren MotionEdit, een nieuwe dataset voor motion-gerichte beeldbewerking: de taak om handelingen en interacties van een onderwerp aan te passen terwijl identiteit, structuur en fysieke geloofwaardigheid behouden blijven. In tegenstelling tot bestaande beeldbewerkingsdatasets die zich richten op statische uiterlijke veranderingen of alleen maar spaarzame, kwalitatief slechte motion-bewerkingen bevatten, biedt MotionEdit hoogwaardige beeldparen die realistische motion-transformaties weergeven, geëxtraheerd en geverifieerd uit continue video's. Deze nieuwe taak is niet alleen wetenschappelijk uitdagend, maar ook praktisch significant, en drijft downstream-toepassingen aan zoals frame-gestuurde videosynthese en animatie. Om modelprestaties op deze nieuwe taak te evalueren, introduceren we MotionEdit-Bench, een benchmark die modellen uitdaagt op motion-gerichte bewerkingen en modelprestaties meet met generatieve, discriminerende en op voorkeur gebaseerde metrieken. Benchmarkresultaten onthullen dat motion-bewerking zeer uitdagend blijft voor bestaande state-of-the-art, op diffusie gebaseerde bewerkingsmodellen. Om dit gat te dichten, stellen we MotionNFT voor (Motion-guided Negative-aware Fine Tuning), een post-training raamwerk dat motion-uitlijningsbeloningen berekent op basis van hoe goed de motion-stroom tussen invoer- en model-bewerkte beelden overeenkomt met de ground-truth motion, om modellen te leiden naar accurate motion-transformaties. Uitgebreide experimenten op FLUX.1 Kontext en Qwen-Image-Edit tonen aan dat MotionNFT consistent de bewerkingskwaliteit en motion-getrouwheid van beide basismodellen verbetert bij de motion-bewerkingstaak, zonder algemene bewerkingsvaardigheid op te offeren, wat de effectiviteit aantoont.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation. To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.
PDF233December 13, 2025