ChatPaper.aiChatPaper

Rauschunterdrückung durch Wiederverwendung: Ausnutzung der Konsistenz der Bewegung zwischen Frames für eine effiziente latente Generierung von Videos.

Denoising Reuse: Exploiting Inter-frame Motion Consistency for Efficient Video Latent Generation

September 19, 2024
Autoren: Chenyu Wang, Shuo Yan, Yixuan Chen, Yujiang Wang, Mingzhi Dong, Xiaochen Yang, Dongsheng Li, Robert P. Dick, Qin Lv, Fan Yang, Tun Lu, Ning Gu, Li Shang
cs.AI

Zusammenfassung

Die Videogenerierung mithilfe von Diffusionsmodellen wird durch hohe Rechenkosten aufgrund des frame-weise iterativen Diffusionsprozesses eingeschränkt. Diese Arbeit stellt ein Diffusion Reuse MOtion (Dr. Mo) Netzwerk vor, um die latente Videogenerierung zu beschleunigen. Unsere Schlüsselerkenntnis ist, dass grobkörnige Rauschen in früheren Denoising-Schritten eine hohe Bewegungskonsistenz über aufeinanderfolgende Videoframes gezeigt haben. Basierend auf dieser Beobachtung propagiert Dr. Mo diese grobkörnigen Rauschen auf den nächsten Frame, indem sorgfältig gestaltete, leichtgewichtige inter-frame Bewegungen integriert werden, um massive Rechenredundanz in frame-weise Diffusionsmodellen zu eliminieren. Die empfindlicheren und feinkörnigen Rauschen werden weiterhin über spätere Denoising-Schritte erworben, die entscheidend sein können, um visuelle Qualitäten zu erhalten. Daher kann die Entscheidung, welche Zwischenschritte von bewegungsbasierten Propagationen zu Denoising wechseln sollten, ein entscheidendes Problem und ein wesentlicher Kompromiss zwischen Effizienz und Qualität sein. Dr. Mo verwendet ein Meta-Netzwerk namens Denoising Step Selector (DSS), um dynamisch wünschenswerte Zwischenschritte über Videoframes hinweg zu bestimmen. Umfangreiche Bewertungen von Videogenerierungs- und Bearbeitungsaufgaben haben gezeigt, dass Dr. Mo Diffusionsmodelle in Videotasks signifikant beschleunigen kann, ohne die visuellen Qualitäten zu beeinträchtigen.
English
Video generation using diffusion-based models is constrained by high computational costs due to the frame-wise iterative diffusion process. This work presents a Diffusion Reuse MOtion (Dr. Mo) network to accelerate latent video generation. Our key discovery is that coarse-grained noises in earlier denoising steps have demonstrated high motion consistency across consecutive video frames. Following this observation, Dr. Mo propagates those coarse-grained noises onto the next frame by incorporating carefully designed, lightweight inter-frame motions, eliminating massive computational redundancy in frame-wise diffusion models. The more sensitive and fine-grained noises are still acquired via later denoising steps, which can be essential to retain visual qualities. As such, deciding which intermediate steps should switch from motion-based propagations to denoising can be a crucial problem and a key tradeoff between efficiency and quality. Dr. Mo employs a meta-network named Denoising Step Selector (DSS) to dynamically determine desirable intermediate steps across video frames. Extensive evaluations on video generation and editing tasks have shown that Dr. Mo can substantially accelerate diffusion models in video tasks with improved visual qualities.

Summary

AI-Generated Summary

PDF52November 16, 2024