ChatPaper.aiChatPaper

Distilação de Consistência de Trajetória

Trajectory Consistency Distillation

February 29, 2024
Autores: Jianbin Zheng, Minghui Hu, Zhongyi Fan, Chaoyue Wang, Changxing Ding, Dacheng Tao, Tat-Jen Cham
cs.AI

Resumo

O Latent Consistency Model (LCM) estende o Consistency Model para o espaço latente e aproveita a técnica de destilação de consistência guiada para alcançar um desempenho impressionante na aceleração da síntese de texto para imagem. No entanto, observamos que o LCM enfrenta dificuldades para gerar imagens com clareza e detalhes intrincados. Para abordar essa limitação, inicialmente investigamos e elucidamos as causas subjacentes. Nossa investigação identifica que o principal problema decorre de erros em três áreas distintas. Consequentemente, introduzimos o Trajectory Consistency Distillation (TCD), que abrange a função de consistência de trajetória e a amostragem estocástica estratégica. A função de consistência de trajetória reduz os erros de destilação ao ampliar o escopo da condição de limite de auto-consistência e dotar o TCD da capacidade de rastrear com precisão toda a trajetória da EDO de Fluxo de Probabilidade. Além disso, a amostragem estocástica estratégica foi especificamente projetada para evitar os erros acumulados inerentes à amostragem de consistência de múltiplos passos, sendo meticulosamente adaptada para complementar o modelo TCD. Experimentos demonstram que o TCD não apenas melhora significativamente a qualidade da imagem em baixos NFEs, mas também produz resultados mais detalhados em comparação com o modelo professor em altos NFEs.
English
Latent Consistency Model (LCM) extends the Consistency Model to the latent space and leverages the guided consistency distillation technique to achieve impressive performance in accelerating text-to-image synthesis. However, we observed that LCM struggles to generate images with both clarity and detailed intricacy. To address this limitation, we initially delve into and elucidate the underlying causes. Our investigation identifies that the primary issue stems from errors in three distinct areas. Consequently, we introduce Trajectory Consistency Distillation (TCD), which encompasses trajectory consistency function and strategic stochastic sampling. The trajectory consistency function diminishes the distillation errors by broadening the scope of the self-consistency boundary condition and endowing the TCD with the ability to accurately trace the entire trajectory of the Probability Flow ODE. Additionally, strategic stochastic sampling is specifically designed to circumvent the accumulated errors inherent in multi-step consistency sampling, which is meticulously tailored to complement the TCD model. Experiments demonstrate that TCD not only significantly enhances image quality at low NFEs but also yields more detailed results compared to the teacher model at high NFEs.
PDF162February 8, 2026