ChatPaper.aiChatPaper

Q-Sched: Spingere i Confini dei Modelli di Diffusione a Pochi Passi con Pianificazione Consapevole della Quantizzazione

Q-Sched: Pushing the Boundaries of Few-Step Diffusion Models with Quantization-Aware Scheduling

September 1, 2025
Autori: Natalia Frumkin, Diana Marculescu
cs.AI

Abstract

I modelli di diffusione text-to-image sono computazionalmente intensivi, richiedendo spesso dozzine di passaggi in avanti attraverso grandi architetture transformer. Ad esempio, Stable Diffusion XL genera immagini di alta qualità con 50 valutazioni di un modello da 2,6 miliardi di parametri, un processo costoso anche per un singolo batch. I modelli di diffusione a pochi passi riducono questo costo a 2-8 step di denoising, ma dipendono comunque da grandi backbone U-Net o transformer di diffusione non compressi, spesso troppo costosi per l'inferenza a precisione completa senza GPU da datacenter. Questi requisiti limitano anche i metodi esistenti di quantizzazione post-addestramento che si basano sulla calibrazione a precisione completa. Introduciamo Q-Sched, un nuovo paradigma per la quantizzazione post-addestramento che modifica lo scheduler del modello di diffusione anziché i pesi del modello. Regolando la traiettoria di campionamento a pochi passi, Q-Sched raggiunge l'accuratezza a precisione completa con una riduzione di 4x delle dimensioni del modello. Per apprendere i coefficienti di pre-condizionamento consapevoli della quantizzazione, proponiamo la loss JAQ, che combina la compatibilità testo-immagine con una metrica di qualità dell'immagine per un'ottimizzazione fine. JAQ è reference-free e richiede solo una manciata di prompt di calibrazione, evitando l'inferenza a precisione completa durante la calibrazione. Q-Sched offre miglioramenti sostanziali: un miglioramento del 15,5% nell'FID rispetto al Latent Consistency Model a 4 passi in FP16 e un miglioramento del 16,6% rispetto al Phased Consistency Model a 8 passi in FP16, dimostrando che la quantizzazione e la distillazione a pochi passi sono complementari per la generazione ad alta fedeltà. Uno studio su larga scala con oltre 80.000 annotazioni conferma ulteriormente l'efficacia di Q-Sched sia su FLUX.1[schnell] che su SDXL-Turbo.
English
Text-to-image diffusion models are computationally intensive, often requiring dozens of forward passes through large transformer backbones. For instance, Stable Diffusion XL generates high-quality images with 50 evaluations of a 2.6B-parameter model, an expensive process even for a single batch. Few-step diffusion models reduce this cost to 2-8 denoising steps but still depend on large, uncompressed U-Net or diffusion transformer backbones, which are often too costly for full-precision inference without datacenter GPUs. These requirements also limit existing post-training quantization methods that rely on full-precision calibration. We introduce Q-Sched, a new paradigm for post-training quantization that modifies the diffusion model scheduler rather than model weights. By adjusting the few-step sampling trajectory, Q-Sched achieves full-precision accuracy with a 4x reduction in model size. To learn quantization-aware pre-conditioning coefficients, we propose the JAQ loss, which combines text-image compatibility with an image quality metric for fine-grained optimization. JAQ is reference-free and requires only a handful of calibration prompts, avoiding full-precision inference during calibration. Q-Sched delivers substantial gains: a 15.5% FID improvement over the FP16 4-step Latent Consistency Model and a 16.6% improvement over the FP16 8-step Phased Consistency Model, showing that quantization and few-step distillation are complementary for high-fidelity generation. A large-scale user study with more than 80,000 annotations further confirms Q-Sched's effectiveness on both FLUX.1[schnell] and SDXL-Turbo.
PDF72September 10, 2025