SD3.5-Flash : Distillation guidée par la distribution pour les flux génératifs
SD3.5-Flash: Distribution-Guided Distillation of Generative Flows
September 25, 2025
papers.authors: Hmrishav Bandyopadhyay, Rahim Entezari, Jim Scott, Reshinth Adithyan, Yi-Zhe Song, Varun Jampani
cs.AI
papers.abstract
Nous présentons SD3.5-Flash, un cadre de distillation efficace en quelques étapes qui apporte une génération d'images de haute qualité sur des appareils grand public accessibles. Notre approche distille des modèles de flux rectifiés, normalement prohibitifs en termes de calcul, grâce à un objectif de correspondance de distribution reformulé, spécialement conçu pour la génération en quelques étapes. Nous introduisons deux innovations clés : le "partage des pas de temps" pour réduire le bruit des gradients et le "réglage fin par pas de temps divisés" pour améliorer l'alignement avec les prompts. Combinées à des optimisations globales du pipeline, comme la restructuration de l'encodeur de texte et une quantification spécialisée, notre système permet à la fois une génération rapide et un déploiement économe en mémoire sur différentes configurations matérielles. Cela démocratise l'accès à travers toute la gamme d'appareils, des téléphones mobiles aux ordinateurs de bureau. Grâce à une évaluation approfondie, incluant des études utilisateurs à grande échelle, nous démontrons que SD3.5-Flash surpasse systématiquement les méthodes existantes en quelques étapes, rendant ainsi l'IA générative avancée véritablement accessible pour un déploiement pratique.
English
We present SD3.5-Flash, an efficient few-step distillation framework that
brings high-quality image generation to accessible consumer devices. Our
approach distills computationally prohibitive rectified flow models through a
reformulated distribution matching objective tailored specifically for few-step
generation. We introduce two key innovations: "timestep sharing" to reduce
gradient noise and "split-timestep fine-tuning" to improve prompt alignment.
Combined with comprehensive pipeline optimizations like text encoder
restructuring and specialized quantization, our system enables both rapid
generation and memory-efficient deployment across different hardware
configurations. This democratizes access across the full spectrum of devices,
from mobile phones to desktop computers. Through extensive evaluation including
large-scale user studies, we demonstrate that SD3.5-Flash consistently
outperforms existing few-step methods, making advanced generative AI truly
accessible for practical deployment.