ChatPaper.aiChatPaper

Riutilizzo del Denoising: Sfruttare la Coerenza del Movimento tra i Frame per una Generazione Latente Efficient per i Video

Denoising Reuse: Exploiting Inter-frame Motion Consistency for Efficient Video Latent Generation

September 19, 2024
Autori: Chenyu Wang, Shuo Yan, Yixuan Chen, Yujiang Wang, Mingzhi Dong, Xiaochen Yang, Dongsheng Li, Robert P. Dick, Qin Lv, Fan Yang, Tun Lu, Ning Gu, Li Shang
cs.AI

Abstract

La generazione di video utilizzando modelli basati sulla diffusione è limitata dai costi computazionali elevati dovuti al processo di diffusione iterativo frame per frame. Questo lavoro presenta una rete chiamata Diffusion Reuse MOtion (Dr. Mo) per accelerare la generazione di video latenti. La nostra scoperta chiave è che i rumori a grana grossolana nei primi passaggi di denoising hanno dimostrato un'alta coerenza di movimento tra i frame video consecutivi. Seguendo questa osservazione, Dr. Mo propaga quei rumori a grana grossolana al frame successivo incorporando movimenti inter-frame leggeri e attentamente progettati, eliminando la massiccia ridondanza computazionale nei modelli di diffusione frame per frame. I rumori più sensibili e a grana più fine sono comunque acquisiti tramite passaggi di denoising successivi, che possono essere essenziali per mantenere le qualità visive. Pertanto, decidere quali passaggi intermedi dovrebbero passare da propagazioni basate sul movimento a denoising può essere un problema cruciale e un trade-off chiave tra efficienza e qualità. Dr. Mo utilizza una meta-rete chiamata Selettore di Passaggi di Denoising (DSS) per determinare dinamicamente i passaggi intermedi desiderabili tra i frame video. Valutazioni approfondite su compiti di generazione e modifica video hanno dimostrato che Dr. Mo può accelerare notevolmente i modelli di diffusione nei compiti video con qualità visive migliorate.
English
Video generation using diffusion-based models is constrained by high computational costs due to the frame-wise iterative diffusion process. This work presents a Diffusion Reuse MOtion (Dr. Mo) network to accelerate latent video generation. Our key discovery is that coarse-grained noises in earlier denoising steps have demonstrated high motion consistency across consecutive video frames. Following this observation, Dr. Mo propagates those coarse-grained noises onto the next frame by incorporating carefully designed, lightweight inter-frame motions, eliminating massive computational redundancy in frame-wise diffusion models. The more sensitive and fine-grained noises are still acquired via later denoising steps, which can be essential to retain visual qualities. As such, deciding which intermediate steps should switch from motion-based propagations to denoising can be a crucial problem and a key tradeoff between efficiency and quality. Dr. Mo employs a meta-network named Denoising Step Selector (DSS) to dynamically determine desirable intermediate steps across video frames. Extensive evaluations on video generation and editing tasks have shown that Dr. Mo can substantially accelerate diffusion models in video tasks with improved visual qualities.

Summary

AI-Generated Summary

PDF52November 16, 2024