ChatPaper.aiChatPaper

MotionEdit: Benchmarking und Lernen bewegungszentrierter Bildbearbeitung

MotionEdit: Benchmarking and Learning Motion-Centric Image Editing

December 11, 2025
papers.authors: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI

papers.abstract

Wir stellen MotionEdit vor, einen neuartigen Datensatz für motionszentrierte Bildbearbeitung – die Aufgabe, Subjektaktionen und Interaktionen zu modifizieren, während Identität, Struktur und physikalische Plausibilität erhalten bleiben. Im Gegensatz zu bestehenden Bildbearbeitungsdatensätzen, die sich auf statische Erscheinungsänderungen konzentrieren oder nur spärliche, qualitativ minderwertige Bewegungsbearbeitungen enthalten, bietet MotionEdit hochwertige Bildpaare, die realistische Bewegungstransformationen darstellen, die aus kontinuierlichen Videos extrahiert und verifiziert wurden. Diese neue Aufgabe ist nicht nur wissenschaftlich anspruchsvoll, sondern auch praktisch bedeutsam, da sie nachgelagerte Anwendungen wie rahmengesteuerte Videosynthese und Animation ermöglicht. Um die Modellleistung bei dieser neuartigen Aufgabe zu bewerten, führen wir MotionEdit-Bench ein, einen Benchmark, der Modelle mit motionszentrierten Bearbeitungen konfrontiert und die Modellleistung mit generativen, diskriminativen und präferenzbasierten Metriken misst. Die Benchmark-Ergebnisse zeigen, dass Bewegungsbearbeitung für bestehende state-of-the-art, diffusionsbasierte Bearbeitungsmodelle nach wie vor eine große Herausforderung darstellt. Um diese Lücke zu schließen, schlagen wir MotionNFT (Motion-guided Negative-aware Fine Tuning) vor, ein Post-Training-Framework, das Bewegungsausrichtungs-Belohnungen basierend darauf berechnet, wie gut der Bewegungsfluss zwischen Eingabe- und modellbearbeiteten Bildern mit der Ground-Truth-Bewegung übereinstimmt, und Modelle so zu präzisen Bewegungstransformationen führt. Umfangreiche Experimente mit FLUX.1 Kontext und Qwen-Image-Edit zeigen, dass MotionNFT die Bearbeitungsqualität und Bewegungstreue beider Basismodelle bei der Bewegungsbearbeitungsaufgabe konsistent verbessert, ohne die allgemeine Bearbeitungsfähigkeit zu beeinträchtigen, was seine Wirksamkeit demonstriert.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation. To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.
PDF233December 13, 2025