ChatPaper.aiChatPaper

SD3.5-Flash : Distillation guidée par la distribution pour les flux génératifs

SD3.5-Flash: Distribution-Guided Distillation of Generative Flows

September 25, 2025
papers.authors: Hmrishav Bandyopadhyay, Rahim Entezari, Jim Scott, Reshinth Adithyan, Yi-Zhe Song, Varun Jampani
cs.AI

papers.abstract

Nous présentons SD3.5-Flash, un cadre de distillation efficace en quelques étapes qui apporte une génération d'images de haute qualité sur des appareils grand public accessibles. Notre approche distille des modèles de flux rectifiés, normalement prohibitifs en termes de calcul, grâce à un objectif de correspondance de distribution reformulé, spécialement conçu pour la génération en quelques étapes. Nous introduisons deux innovations clés : le "partage des pas de temps" pour réduire le bruit des gradients et le "réglage fin par pas de temps divisés" pour améliorer l'alignement avec les prompts. Combinées à des optimisations globales du pipeline, comme la restructuration de l'encodeur de texte et une quantification spécialisée, notre système permet à la fois une génération rapide et un déploiement économe en mémoire sur différentes configurations matérielles. Cela démocratise l'accès à travers toute la gamme d'appareils, des téléphones mobiles aux ordinateurs de bureau. Grâce à une évaluation approfondie, incluant des études utilisateurs à grande échelle, nous démontrons que SD3.5-Flash surpasse systématiquement les méthodes existantes en quelques étapes, rendant ainsi l'IA générative avancée véritablement accessible pour un déploiement pratique.
English
We present SD3.5-Flash, an efficient few-step distillation framework that brings high-quality image generation to accessible consumer devices. Our approach distills computationally prohibitive rectified flow models through a reformulated distribution matching objective tailored specifically for few-step generation. We introduce two key innovations: "timestep sharing" to reduce gradient noise and "split-timestep fine-tuning" to improve prompt alignment. Combined with comprehensive pipeline optimizations like text encoder restructuring and specialized quantization, our system enables both rapid generation and memory-efficient deployment across different hardware configurations. This democratizes access across the full spectrum of devices, from mobile phones to desktop computers. Through extensive evaluation including large-scale user studies, we demonstrate that SD3.5-Flash consistently outperforms existing few-step methods, making advanced generative AI truly accessible for practical deployment.
PDF92September 26, 2025