ChatPaper.aiChatPaper

Distilação Aprimorada de Correspondência de Distribuição para Síntese Rápida de Imagens

Improved Distribution Matching Distillation for Fast Image Synthesis

May 23, 2024
Autores: Tianwei Yin, Michaël Gharbi, Taesung Park, Richard Zhang, Eli Shechtman, Fredo Durand, William T. Freeman
cs.AI

Resumo

Abordagens recentes têm mostrado promessas ao destilar modelos de difusão em geradores eficientes de uma única etapa. Entre elas, a Distilação por Correspondência de Distribuição (DMD) produz geradores de uma etapa que correspondem à distribuição de seus modelos professores, sem impor uma correspondência um-para-um com as trajetórias de amostragem de seus professores. No entanto, para garantir um treinamento estável, o DMD requer uma perda de regressão adicional calculada usando um grande conjunto de pares ruído-imagem gerados pelo professor com muitas etapas de um amostrador determinístico. Isso é custoso para a síntese de texto para imagem em larga escala e limita a qualidade do modelo estudante, vinculando-o muito de perto aos caminhos de amostragem originais do professor. Introduzimos o DMD2, um conjunto de técnicas que supera essa limitação e melhora o treinamento do DMD. Primeiro, eliminamos a perda de regressão e a necessidade de construção de conjuntos de dados caros. Mostramos que a instabilidade resultante se deve ao crítico falso não estimar com precisão a distribuição das amostras geradas e propomos uma regra de atualização em duas escalas de tempo como solução. Segundo, integramos uma perda GAN no procedimento de destilação, discriminando entre amostras geradas e imagens reais. Isso nos permite treinar o modelo estudante com dados reais, mitigando a estimativa imperfeita da pontuação real do modelo professor e melhorando a qualidade. Por último, modificamos o procedimento de treinamento para permitir amostragem em múltiplas etapas. Identificamos e resolvemos o problema de incompatibilidade de entrada entre treinamento e inferência nesse cenário, simulando amostras do gerador durante o tempo de treinamento. Juntas, nossas melhorias estabelecem novos benchmarks na geração de imagens de uma única etapa, com pontuações FID de 1,28 no ImageNet-64x64 e 8,35 no COCO 2014 zero-shot, superando o professor original apesar de uma redução de 500X no custo de inferência. Além disso, mostramos que nossa abordagem pode gerar imagens de megapixels ao destilar o SDXL, demonstrando qualidade visual excepcional entre métodos de poucas etapas.
English
Recent approaches have shown promises distilling diffusion models into efficient one-step generators. Among them, Distribution Matching Distillation (DMD) produces one-step generators that match their teacher in distribution, without enforcing a one-to-one correspondence with the sampling trajectories of their teachers. However, to ensure stable training, DMD requires an additional regression loss computed using a large set of noise-image pairs generated by the teacher with many steps of a deterministic sampler. This is costly for large-scale text-to-image synthesis and limits the student's quality, tying it too closely to the teacher's original sampling paths. We introduce DMD2, a set of techniques that lift this limitation and improve DMD training. First, we eliminate the regression loss and the need for expensive dataset construction. We show that the resulting instability is due to the fake critic not estimating the distribution of generated samples accurately and propose a two time-scale update rule as a remedy. Second, we integrate a GAN loss into the distillation procedure, discriminating between generated samples and real images. This lets us train the student model on real data, mitigating the imperfect real score estimation from the teacher model, and enhancing quality. Lastly, we modify the training procedure to enable multi-step sampling. We identify and address the training-inference input mismatch problem in this setting, by simulating inference-time generator samples during training time. Taken together, our improvements set new benchmarks in one-step image generation, with FID scores of 1.28 on ImageNet-64x64 and 8.35 on zero-shot COCO 2014, surpassing the original teacher despite a 500X reduction in inference cost. Further, we show our approach can generate megapixel images by distilling SDXL, demonstrating exceptional visual quality among few-step methods.
PDF150December 15, 2024