NaRCan: естественное улучшенное каноническое изображение с интеграцией диффузии априори для видеомонтажа
NaRCan: Natural Refined Canonical Image with Integration of Diffusion Prior for Video Editing
June 10, 2024
Авторы: Ting-Hsuan Chen, Jiewen Chan, Hau-Shiang Shiu, Shih-Han Yen, Chang-Han Yeh, Yu-Lun Liu
cs.AI
Аннотация
Мы предлагаем фреймворк видеоредактирования NaRCan, который интегрирует гибридное поле деформации и диффузионный приор для генерации высококачественных естественных канонических изображений для представления входного видео. Наш подход использует гомографию для моделирования глобального движения и применяет многослойные перцептроны (MLP) для захвата локальных остаточных деформаций, улучшая способность модели обрабатывать сложную динамику видео. Внедрение диффузионного приора с начальных этапов обучения в нашу модель обеспечивает сохранение высококачественного естественного вида сгенерированных изображений, что делает произведенные канонические изображения подходящими для различных последующих задач видеоредактирования, что не достигается текущими методами на основе канонических изображений. Кроме того, мы внедряем тонкую настройку низкоранговой адаптации (LoRA) и представляем метод планирования обновления шума и диффузионного приора, который ускоряет процесс обучения в 14 раз. Обширные экспериментальные результаты показывают, что наш метод превосходит существующие подходы в различных задачах видеоредактирования и производит последовательные и высококачественные отредактированные видеопоследовательности. См. нашу страницу проекта для видеорезультатов по ссылке https://koi953215.github.io/NaRCan_page/.
English
We propose a video editing framework, NaRCan, which integrates a hybrid
deformation field and diffusion prior to generate high-quality natural
canonical images to represent the input video. Our approach utilizes homography
to model global motion and employs multi-layer perceptrons (MLPs) to capture
local residual deformations, enhancing the model's ability to handle complex
video dynamics. By introducing a diffusion prior from the early stages of
training, our model ensures that the generated images retain a high-quality
natural appearance, making the produced canonical images suitable for various
downstream tasks in video editing, a capability not achieved by current
canonical-based methods. Furthermore, we incorporate low-rank adaptation (LoRA)
fine-tuning and introduce a noise and diffusion prior update scheduling
technique that accelerates the training process by 14 times. Extensive
experimental results show that our method outperforms existing approaches in
various video editing tasks and produces coherent and high-quality edited video
sequences. See our project page for video results at
https://koi953215.github.io/NaRCan_page/.Summary
AI-Generated Summary