Uを超えて:拡散モデルをより高速かつ軽量化する
Beyond U: Making Diffusion Models Faster & Lighter
October 31, 2023
著者: Sergio Calvo-Ordonez, Jiahao Huang, Lipei Zhang, Guang Yang, Carola-Bibiane Schonlieb, Angelica I Aviles-Rivero
cs.AI
要旨
拡散モデルは、画像合成、動画生成、分子設計などのタスクにおいて記録的な性能を発揮する生成モデルの一種です。しかし、その能力にもかかわらず、特に逆方向のノイズ除去プロセスにおける効率性は、収束速度の遅さと高い計算コストのため、依然として課題となっています。本研究では、連続的な動的システムを活用し、拡散モデル向けの新しいノイズ除去ネットワークを設計するアプローチを提案します。このネットワークは、パラメータ効率が高く、収束が速く、ノイズに対する頑健性が増しています。確率的拡散モデルのノイズ除去実験において、我々のフレームワークは、Denoising Diffusion Probabilistic Models(DDPMs)で使用される標準的なU-Netと比較して、約4分の1のパラメータ数と30%の浮動小数点演算(FLOPs)で動作します。さらに、同等の条件下で測定した場合、我々のモデルはベースラインモデルよりも最大70%高速に推論を行い、より高品質な解に収束します。
English
Diffusion models are a family of generative models that yield record-breaking
performance in tasks such as image synthesis, video generation, and molecule
design. Despite their capabilities, their efficiency, especially in the reverse
denoising process, remains a challenge due to slow convergence rates and high
computational costs. In this work, we introduce an approach that leverages
continuous dynamical systems to design a novel denoising network for diffusion
models that is more parameter-efficient, exhibits faster convergence, and
demonstrates increased noise robustness. Experimenting with denoising
probabilistic diffusion models, our framework operates with approximately a
quarter of the parameters and 30% of the Floating Point Operations (FLOPs)
compared to standard U-Nets in Denoising Diffusion Probabilistic Models
(DDPMs). Furthermore, our model is up to 70% faster in inference than the
baseline models when measured in equal conditions while converging to better
quality solutions.