ChatPaper.aiChatPaper

NaRCan: Natürlich verfeinertes kanonisches Bild mit Integration von Diffusionsprior für die Videobearbeitung

NaRCan: Natural Refined Canonical Image with Integration of Diffusion Prior for Video Editing

June 10, 2024
Autoren: Ting-Hsuan Chen, Jiewen Chan, Hau-Shiang Shiu, Shih-Han Yen, Chang-Han Yeh, Yu-Lun Liu
cs.AI

Zusammenfassung

Wir schlagen ein Video-Editing-Framework namens NaRCan vor, das ein hybrides Deformationsfeld und Diffusionsprior verwendet, um hochwertige natürliche kanonische Bilder zur Darstellung des Eingabevideos zu generieren. Unser Ansatz nutzt Homographie zur Modellierung globaler Bewegungen und verwendet Mehrschichtperzeptrons (MLPs), um lokale Restdeformationen zu erfassen und die Fähigkeit des Modells zur Bewältigung komplexer Videodynamiken zu verbessern. Durch die Einführung eines Diffusionspriors von den frühen Trainingsphasen an stellt unser Modell sicher, dass die generierten Bilder ein hochwertiges natürliches Erscheinungsbild bewahren, wodurch die produzierten kanonischen Bilder für verschiedene nachgelagerte Aufgaben im Video-Editing geeignet sind, was von aktuellen kanonischen Methoden nicht erreicht wird. Darüber hinaus integrieren wir Feinabstimmung durch Low-Rank-Anpassung (LoRA) und führen eine Rausch- und Diffusionsprior-Aktualisierungsplanungstechnik ein, die den Schulungsprozess um das 14-fache beschleunigt. Umfangreiche experimentelle Ergebnisse zeigen, dass unsere Methode bestehende Ansätze in verschiedenen Video-Editing-Aufgaben übertrifft und kohärente und hochwertige bearbeitete Videosequenzen produziert. Besuchen Sie unsere Projektseite für Videoergebnisse unter https://koi953215.github.io/NaRCan_page/.
English
We propose a video editing framework, NaRCan, which integrates a hybrid deformation field and diffusion prior to generate high-quality natural canonical images to represent the input video. Our approach utilizes homography to model global motion and employs multi-layer perceptrons (MLPs) to capture local residual deformations, enhancing the model's ability to handle complex video dynamics. By introducing a diffusion prior from the early stages of training, our model ensures that the generated images retain a high-quality natural appearance, making the produced canonical images suitable for various downstream tasks in video editing, a capability not achieved by current canonical-based methods. Furthermore, we incorporate low-rank adaptation (LoRA) fine-tuning and introduce a noise and diffusion prior update scheduling technique that accelerates the training process by 14 times. Extensive experimental results show that our method outperforms existing approaches in various video editing tasks and produces coherent and high-quality edited video sequences. See our project page for video results at https://koi953215.github.io/NaRCan_page/.

Summary

AI-Generated Summary

PDF532December 8, 2024