ChatPaper.aiChatPaper

NaRCan: Natuurlijk Verfijnd Canoniek Beeld met Integratie van Diffusieprior voor Videobewerking

NaRCan: Natural Refined Canonical Image with Integration of Diffusion Prior for Video Editing

June 10, 2024
Auteurs: Ting-Hsuan Chen, Jiewen Chan, Hau-Shiang Shiu, Shih-Han Yen, Chang-Han Yeh, Yu-Lun Liu
cs.AI

Samenvatting

We stellen een video-editingframework voor, NaRCan, dat een hybride vervormingsveld en een diffusieprior integreert om hoogwaardige natuurlijke canonieke afbeeldingen te genereren die de invoervideo representeren. Onze aanpak maakt gebruik van homografie om globale beweging te modelleren en gebruikt multi-layer perceptrons (MLPs) om lokale resterende vervormingen vast te leggen, waardoor het vermogen van het model om complexe videodynamiek te verwerken wordt verbeterd. Door een diffusieprior vanaf de vroege fasen van de training te introduceren, zorgt ons model ervoor dat de gegenereerde afbeeldingen een hoogwaardig natuurlijk uiterlijk behouden, waardoor de geproduceerde canonieke afbeeldingen geschikt zijn voor verschillende downstream taken in video-editing, een mogelijkheid die niet wordt bereikt door huidige canonieke methoden. Bovendien integreren we low-rank adaptation (LoRA) fine-tuning en introduceren we een techniek voor het plannen van ruis- en diffusiepriorupdates die het trainingsproces met 14 keer versnelt. Uitgebreide experimentele resultaten tonen aan dat onze methode bestaande benaderingen overtreft in verschillende video-editingtaken en samenhangende en hoogwaardige bewerkte videosequenties produceert. Bekijk onze projectpagina voor videoresultaten op https://koi953215.github.io/NaRCan_page/.
English
We propose a video editing framework, NaRCan, which integrates a hybrid deformation field and diffusion prior to generate high-quality natural canonical images to represent the input video. Our approach utilizes homography to model global motion and employs multi-layer perceptrons (MLPs) to capture local residual deformations, enhancing the model's ability to handle complex video dynamics. By introducing a diffusion prior from the early stages of training, our model ensures that the generated images retain a high-quality natural appearance, making the produced canonical images suitable for various downstream tasks in video editing, a capability not achieved by current canonical-based methods. Furthermore, we incorporate low-rank adaptation (LoRA) fine-tuning and introduce a noise and diffusion prior update scheduling technique that accelerates the training process by 14 times. Extensive experimental results show that our method outperforms existing approaches in various video editing tasks and produces coherent and high-quality edited video sequences. See our project page for video results at https://koi953215.github.io/NaRCan_page/.
PDF532February 7, 2026