MotionEdit: Evaluación y Aprendizaje de Edición de Imágenes Centrada en Movimiento
MotionEdit: Benchmarking and Learning Motion-Centric Image Editing
December 11, 2025
Autores: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI
Resumen
Presentamos MotionEdit, un novedoso conjunto de datos para la edición de imágenes centrada en el movimiento: la tarea de modificar acciones e interacciones del sujeto preservando la identidad, la estructura y la plausibilidad física. A diferencia de los conjuntos de datos de edición de imágenes existentes, que se centran en cambios de apariencia estática o contienen únicamente ediciones de movimiento escasas y de baja calidad, MotionEdit proporciona pares de imágenes de alta fidelidad que representan transformaciones de movimiento realistas, extraídas y verificadas a partir de vídeos continuos. Esta nueva tarea no solo es científicamente desafiante, sino también de gran importancia práctica, impulsando aplicaciones derivadas como la síntesis de vídeo controlada por fotogramas y la animación.
Para evaluar el rendimiento de los modelos en esta novedosa tarea, presentamos MotionEdit-Bench, un benchmark que desafía a los modelos con ediciones centradas en el movimiento y mide su rendimiento mediante métricas generativas, discriminativas y basadas en preferencias. Los resultados del benchmark revelan que la edición de movimiento sigue siendo altamente compleja para los modelos de edición basados en difusión más avanzados existentes. Para abordar esta brecha, proponemos MotionNFT (Fine Tuning Negativo Guiado por Movimiento), un marco de trabajo de post-entrenamiento que calcula recompensas de alineación de movimiento basadas en qué tan bien coincide el flujo de movimiento entre las imágenes de entrada y las editadas por el modelo con el movimiento de referencia, guiando a los modelos hacia transformaciones de movimiento precisas. Experimentos exhaustivos en FLUX.1 Kontext y Qwen-Image-Edit demuestran que MotionNFT mejora consistentemente la calidad de edición y la fidelidad del movimiento de ambos modelos base en la tarea de edición de movimiento sin sacrificar su capacidad de edición general, lo que evidencia su eficacia.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation.
To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.