ChatPaper.aiChatPaper

Clockwork Diffusion: Generazione Efficiente con Distillazione Modello-Passo

Clockwork Diffusion: Efficient Generation With Model-Step Distillation

December 13, 2023
Autori: Amirhossein Habibian, Amir Ghodrati, Noor Fathima, Guillaume Sautiere, Risheek Garrepalli, Fatih Porikli, Jens Petersen
cs.AI

Abstract

Questo lavoro mira a migliorare l'efficienza dei modelli di diffusione testo-immagine. Sebbene i modelli di diffusione utilizzino operazioni di denoising basate su UNet computazionalmente costose in ogni fase di generazione, abbiamo identificato che non tutte le operazioni sono ugualmente rilevanti per la qualità finale dell'output. In particolare, osserviamo che i livelli UNet che operano su mappe di caratteristiche ad alta risoluzione sono relativamente sensibili a piccole perturbazioni. Al contrario, le mappe di caratteristiche a bassa risoluzione influenzano il layout semantico dell'immagine finale e possono spesso essere perturbate senza cambiamenti evidenti nell'output. Sulla base di questa osservazione, proponiamo Clockwork Diffusion, un metodo che riutilizza periodicamente il calcolo delle precedenti fasi di denoising per approssimare le mappe di caratteristiche a bassa risoluzione in una o più fasi successive. Per molteplici baseline, sia per la generazione testo-immagine che per l'editing di immagini, dimostriamo che Clockwork porta a punteggi percettivi comparabili o migliorati con una complessità computazionale drasticamente ridotta. Ad esempio, per Stable Diffusion v1.5 con 8 passaggi DPM++, risparmiamo il 32% delle FLOP con cambiamenti trascurabili in FID e CLIP.
English
This work aims to improve the efficiency of text-to-image diffusion models. While diffusion models use computationally expensive UNet-based denoising operations in every generation step, we identify that not all operations are equally relevant for the final output quality. In particular, we observe that UNet layers operating on high-res feature maps are relatively sensitive to small perturbations. In contrast, low-res feature maps influence the semantic layout of the final image and can often be perturbed with no noticeable change in the output. Based on this observation, we propose Clockwork Diffusion, a method that periodically reuses computation from preceding denoising steps to approximate low-res feature maps at one or more subsequent steps. For multiple baselines, and for both text-to-image generation and image editing, we demonstrate that Clockwork leads to comparable or improved perceptual scores with drastically reduced computational complexity. As an example, for Stable Diffusion v1.5 with 8 DPM++ steps we save 32% of FLOPs with negligible FID and CLIP change.
PDF150December 15, 2024