MotionEdit: Avaliação e Aprendizado de Edição de Imagens Centrada em Movimento
MotionEdit: Benchmarking and Learning Motion-Centric Image Editing
December 11, 2025
Autores: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI
Resumo
Apresentamos o MotionEdit, um novo conjunto de dados para edição de imagens centrada em movimento — a tarefa de modificar ações e interações do sujeito preservando identidade, estrutura e plausibilidade física. Diferente dos conjuntos de dados de edição de imagem existentes, que focam em alterações de aparência estática ou contêm apenas edições de movimento esparsas e de baixa qualidade, o MotionEdit fornece pares de imagens de alta fidelidade que retratam transformações realistas de movimento, extraídas e validadas a partir de vídeos contínuos. Esta nova tarefa não é apenas cientificamente desafiadora, mas também praticamente significativa, impulsionando aplicações subsequentes, como síntese de vídeo controlada por fotogramas e animação.
Para avaliar o desempenho dos modelos nesta nova tarefa, introduzimos o MotionEdit-Bench, um benchmark que desafia os modelos em edições centradas em movimento e mede seu desempenho com métricas generativas, discriminativas e baseadas em preferência. Os resultados do benchmark revelam que a edição de movimento permanece altamente desafiadora para os modelos de edição state-of-the-art baseados em difusão existentes. Para abordar esta lacuna, propomos o MotionNFT (Motion-guided Negative-aware Fine Tuning), uma estrutura de pós-treinamento que calcula recompensas de alinhamento de movimento com base na correspondência entre o fluxo de movimento das imagens de entrada e as imagens editadas pelo modelo com o movimento real de referência, orientando os modelos para transformações de movimento precisas. Experimentos extensivos no FLUX.1 Kontext e no Qwen-Image-Edit mostram que o MotionNFT melhora consistentemente a qualidade de edição e a fidelidade de movimento de ambos os modelos base na tarefa de edição de movimento, sem sacrificar a capacidade de edição geral, demonstrando sua eficácia.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation.
To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.