ChatPaper.aiChatPaper

MotionEdit: Бенчмаркинг и обучение редактированию изображений с акцентом на движение

MotionEdit: Benchmarking and Learning Motion-Centric Image Editing

December 11, 2025
Авторы: Yixin Wan, Lei Ke, Wenhao Yu, Kai-Wei Chang, Dong Yu
cs.AI

Аннотация

Мы представляем MotionEdit — новый набор данных для модификации изображений с акцентом на движение — задачи изменения действий и взаимодействий объектов с сохранением идентичности, структуры и физической правдоподобности. В отличие от существующих наборов данных для редактирования изображений, которые сосредоточены на статических изменениях внешнего вида или содержат лишь редкие низкокачественные модификации движения, MotionEdit предоставляет высококачественные парные изображения, отображающие реалистичные преобразования движения, извлеченные и проверенные из непрерывных видеопоследовательностей. Эта новая задача представляет не только научный интерес, но и имеет практическую значимость, обеспечивая работу таких приложений, как синтез видео с контролем кадров и анимация. Для оценки производительности моделей на новой задаче мы представляем MotionEdit-Bench — эталонный тест, который проверяет модели на модификациях с акцентом на движение и измеряет их производительность с помощью генеративных, дискриминативных и предпочтительных метрик. Результаты тестирования показывают, что редактирование движения остается крайне сложной задачей для современных диффузионных моделей редактирования. Для преодоления этого разрыва мы предлагаем MotionNFT (Motion-guided Negative-aware Fine Tuning) — посттренировочный фреймворк, который вычисляет награды за согласованность движения на основе того, насколько точно поток движения между входными и отредактированными моделью изображениями соответствует эталонному движению, направляя модели к точным преобразованиям движения. Многочисленные эксперименты на моделях FLUX.1 Kontext и Qwen-Image-Edit показывают, что MotionNFT последовательно улучшает качество редактирования и достоверность движения обеих базовых моделей в задаче модификации движения без ущерба для общей способности к редактированию, что подтверждает его эффективность.
English
We introduce MotionEdit, a novel dataset for motion-centric image editing-the task of modifying subject actions and interactions while preserving identity, structure, and physical plausibility. Unlike existing image editing datasets that focus on static appearance changes or contain only sparse, low-quality motion edits, MotionEdit provides high-fidelity image pairs depicting realistic motion transformations extracted and verified from continuous videos. This new task is not only scientifically challenging but also practically significant, powering downstream applications such as frame-controlled video synthesis and animation. To evaluate model performance on the novel task, we introduce MotionEdit-Bench, a benchmark that challenges models on motion-centric edits and measures model performance with generative, discriminative, and preference-based metrics. Benchmark results reveal that motion editing remains highly challenging for existing state-of-the-art diffusion-based editing models. To address this gap, we propose MotionNFT (Motion-guided Negative-aware Fine Tuning), a post-training framework that computes motion alignment rewards based on how well the motion flow between input and model-edited images matches the ground-truth motion, guiding models toward accurate motion transformations. Extensive experiments on FLUX.1 Kontext and Qwen-Image-Edit show that MotionNFT consistently improves editing quality and motion fidelity of both base models on the motion editing task without sacrificing general editing ability, demonstrating its effectiveness.
PDF233December 13, 2025