Weinig-stapsdistillatie voor tekst-naar-beeldgeneratie: een praktische gids
Few-Step Distillation for Text-to-Image Generation: A Practical Guide
December 15, 2025
Auteurs: Yifan Pu, Yizeng Han, Zhiwei Tang, Jiasheng Tang, Fan Wang, Bohan Zhuang, Gao Huang
cs.AI
Samenvatting
Diffusiedistillatie heeft klassengeconditioneerde beeldvorming aanzienlijk versneld, maar de toepasbaarheid ervan op open-ended tekst-naar-beeld (T2I) generatie is nog onduidelijk. Wij presenteren de eerste systematische studie die state-of-the-art distillatietechnieken aanpast en vergelijkt op een sterk T2I-leraarmodel, FLUX.1-lite. Door bestaande methoden in een uniform raamwerk te plaatsen, identificeren we de belangrijkste obstakels die ontstaan bij de overgang van discrete klasselabels naar vrije taalprompts. Naast een grondige methodologische analyse bieden we praktische richtlijnen voor input-schaling, netwerkarchitectuur en hyperparameters, vergezeld van een open-source implementatie en voorgetrainde studentmodellen. Onze bevindingen leggen een solide basis voor de inzet van snelle, hoogwaardige en resource-efficiënte diffusiegeneratoren in real-world T2I-toepassingen. Code is beschikbaar op github.com/alibaba-damo-academy/T2I-Distill.
English
Diffusion distillation has dramatically accelerated class-conditional image synthesis, but its applicability to open-ended text-to-image (T2I) generation is still unclear. We present the first systematic study that adapts and compares state-of-the-art distillation techniques on a strong T2I teacher model, FLUX.1-lite. By casting existing methods into a unified framework, we identify the key obstacles that arise when moving from discrete class labels to free-form language prompts. Beyond a thorough methodological analysis, we offer practical guidelines on input scaling, network architecture, and hyperparameters, accompanied by an open-source implementation and pretrained student models. Our findings establish a solid foundation for deploying fast, high-fidelity, and resource-efficient diffusion generators in real-world T2I applications. Code is available on github.com/alibaba-damo-academy/T2I-Distill.