ChatPaper.aiChatPaper

Trajectorie Consistentie Distillatie

Trajectory Consistency Distillation

February 29, 2024
Auteurs: Jianbin Zheng, Minghui Hu, Zhongyi Fan, Chaoyue Wang, Changxing Ding, Dacheng Tao, Tat-Jen Cham
cs.AI

Samenvatting

Het Latent Consistency Model (LCM) breidt het Consistency Model uit naar de latente ruimte en maakt gebruik van de techniek van guided consistency distillation om indrukwekkende prestaties te behalen in het versnellen van tekst-naar-beeld synthese. We hebben echter geobserveerd dat LCM moeite heeft om afbeeldingen te genereren die zowel helderheid als gedetailleerde complexiteit vertonen. Om deze beperking aan te pakken, gaan we eerst in op de onderliggende oorzaken en lichten deze toe. Ons onderzoek identificeert dat het primaire probleem voortkomt uit fouten in drie verschillende gebieden. Als gevolg hiervan introduceren we Trajectory Consistency Distillation (TCD), dat bestaat uit een trajectconsistentiefunctie en strategische stochastische sampling. De trajectconsistentiefunctie vermindert de distillatiefouten door het bereik van de zelfconsistentie randvoorwaarde te verbreden en TCD de mogelijkheid te geven om het volledige traject van de Probability Flow ODE nauwkeurig te volgen. Daarnaast is strategische stochastische sampling specifiek ontworpen om de opgestapelde fouten die inherent zijn aan multi-step consistency sampling te omzeilen, en is zorgvuldig afgestemd om het TCD-model aan te vullen. Experimenten tonen aan dat TCD niet alleen de beeldkwaliteit aanzienlijk verbetert bij een laag aantal functie-evaluaties (NFEs), maar ook gedetailleerdere resultaten oplevert vergeleken met het lerarenmodel bij een hoog aantal NFEs.
English
Latent Consistency Model (LCM) extends the Consistency Model to the latent space and leverages the guided consistency distillation technique to achieve impressive performance in accelerating text-to-image synthesis. However, we observed that LCM struggles to generate images with both clarity and detailed intricacy. To address this limitation, we initially delve into and elucidate the underlying causes. Our investigation identifies that the primary issue stems from errors in three distinct areas. Consequently, we introduce Trajectory Consistency Distillation (TCD), which encompasses trajectory consistency function and strategic stochastic sampling. The trajectory consistency function diminishes the distillation errors by broadening the scope of the self-consistency boundary condition and endowing the TCD with the ability to accurately trace the entire trajectory of the Probability Flow ODE. Additionally, strategic stochastic sampling is specifically designed to circumvent the accumulated errors inherent in multi-step consistency sampling, which is meticulously tailored to complement the TCD model. Experiments demonstrate that TCD not only significantly enhances image quality at low NFEs but also yields more detailed results compared to the teacher model at high NFEs.
PDF162February 8, 2026