ChatPaper.aiChatPaper

NaRCan : Image Canonique Raffinée Naturelle avec Intégration d'un Prior de Diffusion pour l'Édition Vidéo

NaRCan: Natural Refined Canonical Image with Integration of Diffusion Prior for Video Editing

June 10, 2024
Auteurs: Ting-Hsuan Chen, Jiewen Chan, Hau-Shiang Shiu, Shih-Han Yen, Chang-Han Yeh, Yu-Lun Liu
cs.AI

Résumé

Nous proposons un cadre de montage vidéo, NaRCan, qui intègre un champ de déformation hybride et un a priori de diffusion pour générer des images canoniques naturelles de haute qualité représentant la vidéo d'entrée. Notre approche utilise l'homographie pour modéliser le mouvement global et emploie des perceptrons multicouches (MLPs) pour capturer les déformations résiduelles locales, améliorant ainsi la capacité du modèle à gérer les dynamiques vidéo complexes. En introduisant un a priori de diffusion dès les premières étapes de l'entraînement, notre modèle garantit que les images générées conservent une apparence naturelle de haute qualité, rendant les images canoniques produites adaptées à diverses tâches de montage vidéo en aval, une capacité non atteinte par les méthodes canoniques actuelles. De plus, nous intégrons un réglage fin par adaptation de bas rang (LoRA) et introduisons une technique de planification de mise à jour du bruit et de l'a priori de diffusion qui accélère le processus d'entraînement par un facteur de 14. Les résultats expérimentaux approfondis montrent que notre méthode surpasse les approches existantes dans diverses tâches de montage vidéo et produit des séquences vidéo éditées cohérentes et de haute qualité. Consultez notre page de projet pour les résultats vidéo à l'adresse https://koi953215.github.io/NaRCan_page/.
English
We propose a video editing framework, NaRCan, which integrates a hybrid deformation field and diffusion prior to generate high-quality natural canonical images to represent the input video. Our approach utilizes homography to model global motion and employs multi-layer perceptrons (MLPs) to capture local residual deformations, enhancing the model's ability to handle complex video dynamics. By introducing a diffusion prior from the early stages of training, our model ensures that the generated images retain a high-quality natural appearance, making the produced canonical images suitable for various downstream tasks in video editing, a capability not achieved by current canonical-based methods. Furthermore, we incorporate low-rank adaptation (LoRA) fine-tuning and introduce a noise and diffusion prior update scheduling technique that accelerates the training process by 14 times. Extensive experimental results show that our method outperforms existing approaches in various video editing tasks and produces coherent and high-quality edited video sequences. See our project page for video results at https://koi953215.github.io/NaRCan_page/.

Summary

AI-Generated Summary

PDF532December 8, 2024