ChatPaper.aiChatPaper

Oltre U: Rendere i Modelli di Diffusione Più Veloci e Leggeri

Beyond U: Making Diffusion Models Faster & Lighter

October 31, 2023
Autori: Sergio Calvo-Ordonez, Jiahao Huang, Lipei Zhang, Guang Yang, Carola-Bibiane Schonlieb, Angelica I Aviles-Rivero
cs.AI

Abstract

I modelli di diffusione sono una famiglia di modelli generativi che raggiungono prestazioni record in compiti come la sintesi di immagini, la generazione di video e il design di molecole. Nonostante le loro capacità, la loro efficienza, in particolare nel processo inverso di rimozione del rumore, rimane una sfida a causa dei tassi di convergenza lenti e degli elevati costi computazionali. In questo lavoro, introduciamo un approccio che sfrutta sistemi dinamici continui per progettare una nuova rete di rimozione del rumore per i modelli di diffusione che è più efficiente in termini di parametri, mostra una convergenza più rapida e dimostra una maggiore robustezza al rumore. Sperimentando con modelli probabilistici di diffusione per la rimozione del rumore, il nostro framework opera con circa un quarto dei parametri e il 30% delle operazioni in virgola mobile (FLOPs) rispetto alle U-Net standard nei Modelli Probabilistici di Diffusione per la Rimozione del Rumore (DDPM). Inoltre, il nostro modello è fino al 70% più veloce nell'inferenza rispetto ai modelli di riferimento quando misurato in condizioni uguali, convergendo verso soluzioni di qualità superiore.
English
Diffusion models are a family of generative models that yield record-breaking performance in tasks such as image synthesis, video generation, and molecule design. Despite their capabilities, their efficiency, especially in the reverse denoising process, remains a challenge due to slow convergence rates and high computational costs. In this work, we introduce an approach that leverages continuous dynamical systems to design a novel denoising network for diffusion models that is more parameter-efficient, exhibits faster convergence, and demonstrates increased noise robustness. Experimenting with denoising probabilistic diffusion models, our framework operates with approximately a quarter of the parameters and 30% of the Floating Point Operations (FLOPs) compared to standard U-Nets in Denoising Diffusion Probabilistic Models (DDPMs). Furthermore, our model is up to 70% faster in inference than the baseline models when measured in equal conditions while converging to better quality solutions.
PDF121February 7, 2026