ChatPaper.aiChatPaper

Clockwork Diffusion: Effiziente Generierung durch Modell-Schritt-Destillation

Clockwork Diffusion: Efficient Generation With Model-Step Distillation

December 13, 2023
Autoren: Amirhossein Habibian, Amir Ghodrati, Noor Fathima, Guillaume Sautiere, Risheek Garrepalli, Fatih Porikli, Jens Petersen
cs.AI

Zusammenfassung

Diese Arbeit zielt darauf ab, die Effizienz von Text-zu-Bild-Diffusionsmodellen zu verbessern. Während Diffusionsmodelle in jedem Generierungsschritt rechenintensive UNet-basierte Denoising-Operationen verwenden, stellen wir fest, dass nicht alle Operationen gleichermaßen relevant für die endgültige Ausgabequalität sind. Insbesondere beobachten wir, dass UNet-Schichten, die auf hochauflösenden Feature-Maps operieren, relativ empfindlich auf kleine Störungen reagieren. Im Gegensatz dazu beeinflussen niedrigauflösende Feature-Maps das semantische Layout des endgültigen Bildes und können oft gestört werden, ohne dass sich die Ausgabe merklich verändert. Basierend auf dieser Beobachtung schlagen wir Clockwork Diffusion vor, eine Methode, die periodisch Berechnungen aus vorherigen Denoising-Schritten wiederverwendet, um niedrigauflösende Feature-Maps in einem oder mehreren nachfolgenden Schritten zu approximieren. Für mehrere Baselines und sowohl für die Text-zu-Bild-Generierung als auch für die Bildbearbeitung zeigen wir, dass Clockwork vergleichbare oder verbesserte Wahrnehmungswerte bei drastisch reduzierter Rechenkomplexität liefert. Als Beispiel sparen wir für Stable Diffusion v1.5 mit 8 DPM++-Schritten 32 % der FLOPs bei vernachlässigbarer Änderung von FID und CLIP.
English
This work aims to improve the efficiency of text-to-image diffusion models. While diffusion models use computationally expensive UNet-based denoising operations in every generation step, we identify that not all operations are equally relevant for the final output quality. In particular, we observe that UNet layers operating on high-res feature maps are relatively sensitive to small perturbations. In contrast, low-res feature maps influence the semantic layout of the final image and can often be perturbed with no noticeable change in the output. Based on this observation, we propose Clockwork Diffusion, a method that periodically reuses computation from preceding denoising steps to approximate low-res feature maps at one or more subsequent steps. For multiple baselines, and for both text-to-image generation and image editing, we demonstrate that Clockwork leads to comparable or improved perceptual scores with drastically reduced computational complexity. As an example, for Stable Diffusion v1.5 with 8 DPM++ steps we save 32% of FLOPs with negligible FID and CLIP change.
PDF150December 15, 2024