ChatPaper.aiChatPaper

MotionEdit: Benchmark e Apprendimento per l'Editing di Immagini Centrato sul Movimento

MotionEdit: Benchmarking and Learning Motion-Centric Image Editing

December 11, 2025
Autori: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI

Abstract

Introduciamo MotionEdit, un nuovo dataset per l'editing di immagini incentrato sul movimento, ovvero il compito di modificare azioni e interazioni del soggetto preservando identità, struttura e plausibilità fisica. A differenza dei dataset di editing di immagini esistenti, che si concentrano su cambiamenti d'aspetto statici o contengono solo modifiche di movimento sporadiche e di bassa qualità, MotionEdit fornisce coppie di immagini ad alta fedeltà che raffigurano trasformazioni di movimento realistiche, estratte e verificate da video continui. Questo nuovo compito non è solo scientificamente impegnativo ma anche praticamente significativo, alimentando applicazioni downstream come la sintesi video controllata dai fotogrammi e l'animazione. Per valutare le prestazioni dei modelli su questo nuovo compito, introduciamo MotionEdit-Bench, un benchmark che mette alla prova i modelli su modifiche incentrate sul movimento e misura le loro prestazioni con metriche generative, discriminative e basate sulla preferenza. I risultati del benchmark rivelano che l'editing del movimento rimane estremamente impegnativo per i modelli di editing basati su diffusione allo stato dell'arte esistenti. Per colmare questa lacuna, proponiamo MotionNFT (Motion-guided Negative-aware Fine Tuning), un framework di post-addestramento che calcola ricompense di allineamento del movimento basate sulla corrispondenza tra il flusso di movimento tra le immagini di input e quelle modificate dal modello e il movimento reale di riferimento, guidando i modelli verso trasformazioni di movimento accurate. Esperimenti estensivi su FLUX.1 Kontext e Qwen-Image-Edit mostrano che MotionNFT migliora costantemente la qualità dell'editing e la fedeltà del movimento di entrambi i modelli base nel compito di editing del movimento, senza sacrificare la capacità di editing generale, dimostrandone l'efficacia.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation. To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.
PDF233December 13, 2025