ChatPaper.aiChatPaper

Compreendendo Alucinações em Modelos de Difusão por meio de Interpolação de Modos

Understanding Hallucinations in Diffusion Models through Mode Interpolation

June 13, 2024
Autores: Sumukh K Aithal, Pratyush Maini, Zachary C. Lipton, J. Zico Kolter
cs.AI

Resumo

Coloquialmente falando, modelos de geração de imagens baseados em processos de difusão são frequentemente descritos como exibindo "alucinações", ou seja, amostras que nunca ocorreriam nos dados de treinamento. Mas de onde vêm essas alucinações? Neste artigo, estudamos um modo específico de falha em modelos de difusão, que denominamos interpolação de modos. Especificamente, descobrimos que os modelos de difusão "interpolam" suavemente entre modos de dados próximos no conjunto de treinamento, gerando amostras que estão completamente fora do suporte da distribuição original de treinamento; esse fenômeno leva os modelos de difusão a gerar artefatos que nunca existiram em dados reais (ou seja, alucinações). Estudamos sistematicamente as razões e a manifestação desse fenômeno. Por meio de experimentos com Gaussianas 1D e 2D, mostramos como uma paisagem de perda descontínua no decodificador do modelo de difusão leva a uma região onde qualquer aproximação suave causará tais alucinações. Através de experimentos com conjuntos de dados artificiais de várias formas, mostramos como a alucinação leva à geração de combinações de formas que nunca existiram. Por fim, mostramos que os modelos de difusão, na verdade, sabem quando saem do suporte e alucinam. Isso é capturado pela alta variância na trajetória da amostra gerada durante as últimas etapas do processo de amostragem reversa. Usando uma métrica simples para capturar essa variância, podemos remover mais de 95% das alucinações no momento da geração, mantendo 96% das amostras dentro do suporte. Concluímos nossa exploração mostrando as implicações dessa alucinação (e sua remoção) no colapso (e estabilização) do treinamento recursivo em dados sintéticos, com experimentos no conjunto de dados MNIST e Gaussianas 2D. Disponibilizamos nosso código em https://github.com/locuslab/diffusion-model-hallucination.
English
Colloquially speaking, image generation models based upon diffusion processes are frequently said to exhibit "hallucinations," samples that could never occur in the training data. But where do such hallucinations come from? In this paper, we study a particular failure mode in diffusion models, which we term mode interpolation. Specifically, we find that diffusion models smoothly "interpolate" between nearby data modes in the training set, to generate samples that are completely outside the support of the original training distribution; this phenomenon leads diffusion models to generate artifacts that never existed in real data (i.e., hallucinations). We systematically study the reasons for, and the manifestation of this phenomenon. Through experiments on 1D and 2D Gaussians, we show how a discontinuous loss landscape in the diffusion model's decoder leads to a region where any smooth approximation will cause such hallucinations. Through experiments on artificial datasets with various shapes, we show how hallucination leads to the generation of combinations of shapes that never existed. Finally, we show that diffusion models in fact know when they go out of support and hallucinate. This is captured by the high variance in the trajectory of the generated sample towards the final few backward sampling process. Using a simple metric to capture this variance, we can remove over 95% of hallucinations at generation time while retaining 96% of in-support samples. We conclude our exploration by showing the implications of such hallucination (and its removal) on the collapse (and stabilization) of recursive training on synthetic data with experiments on MNIST and 2D Gaussians dataset. We release our code at https://github.com/locuslab/diffusion-model-hallucination.
PDF51December 6, 2024