SANA-Sprint: 連続時間一貫性蒸留によるワンステップ拡散
SANA-Sprint: One-Step Diffusion with Continuous-Time Consistency Distillation
March 12, 2025
著者: Junsong Chen, Shuchen Xue, Yuyang Zhao, Jincheng Yu, Sayak Paul, Junyu Chen, Han Cai, Enze Xie, Song Han
cs.AI
要旨
本論文では、超高速テキストから画像生成(T2I)のための効率的な拡散モデルであるSANA-Sprintを提案する。SANA-Sprintは事前学習済みの基盤モデルをベースとしており、ハイブリッド蒸留を組み合わせることで、推論ステップ数を20から1-4に大幅に削減している。本手法では3つの主要な革新を導入している:(1) 事前学習済みのフローマッチングモデルを連続時間整合性蒸留(sCM)に変換するトレーニング不要のアプローチを提案し、ゼロからの高コストな学習を排除して高い学習効率を実現する。ハイブリッド蒸留戦略では、sCMと潜在敵対的蒸留(LADD)を組み合わせており、sCMは教師モデルとの整合性を保証し、LADDは単一ステップ生成の忠実度を向上させる。(2) SANA-Sprintは統合されたステップ適応型モデルであり、1-4ステップで高品質な生成を実現し、ステップ固有の学習を排除して効率を向上させる。(3) ControlNetをSANA-Sprintに統合し、リアルタイムのインタラクティブな画像生成を可能にし、ユーザーインタラクションに対する即時の視覚的フィードバックを提供する。SANA-Sprintは速度と品質のトレードオフにおいて新たなパレートフロンティアを確立し、1ステップで7.59 FIDと0.74 GenEvalという最先端の性能を達成し、FLUX-schnell(7.94 FID / 0.71 GenEval)を性能で上回りながら10倍高速(H100で0.1秒 vs 1.1秒)である。また、H100上で1024 x 1024画像の生成において0.1秒(T2I)と0.25秒(ControlNet)、RTX 4090上で0.31秒(T2I)のレイテンシを達成し、AIを活用した消費者向けアプリケーション(AIPC)における卓越した効率性と可能性を示している。コードと事前学習済みモデルはオープンソース化される予定である。
English
This paper presents SANA-Sprint, an efficient diffusion model for ultra-fast
text-to-image (T2I) generation. SANA-Sprint is built on a pre-trained
foundation model and augmented with hybrid distillation, dramatically reducing
inference steps from 20 to 1-4. We introduce three key innovations: (1) We
propose a training-free approach that transforms a pre-trained flow-matching
model for continuous-time consistency distillation (sCM), eliminating costly
training from scratch and achieving high training efficiency. Our hybrid
distillation strategy combines sCM with latent adversarial distillation (LADD):
sCM ensures alignment with the teacher model, while LADD enhances single-step
generation fidelity. (2) SANA-Sprint is a unified step-adaptive model that
achieves high-quality generation in 1-4 steps, eliminating step-specific
training and improving efficiency. (3) We integrate ControlNet with SANA-Sprint
for real-time interactive image generation, enabling instant visual feedback
for user interaction. SANA-Sprint establishes a new Pareto frontier in
speed-quality tradeoffs, achieving state-of-the-art performance with 7.59 FID
and 0.74 GenEval in only 1 step - outperforming FLUX-schnell (7.94 FID / 0.71
GenEval) while being 10x faster (0.1s vs 1.1s on H100). It also achieves 0.1s
(T2I) and 0.25s (ControlNet) latency for 1024 x 1024 images on H100, and 0.31s
(T2I) on an RTX 4090, showcasing its exceptional efficiency and potential for
AI-powered consumer applications (AIPC). Code and pre-trained models will be
open-sourced.Summary
AI-Generated Summary