ChatPaper.aiChatPaper

Verständnis von Halluzinationen in Diffusionsmodellen durch Modusinterpolation

Understanding Hallucinations in Diffusion Models through Mode Interpolation

June 13, 2024
papers.authors: Sumukh K Aithal, Pratyush Maini, Zachary C. Lipton, J. Zico Kolter
cs.AI

papers.abstract

Im allgemeinen Sprachgebrauch wird häufig davon gesprochen, dass Bildgenerierungsmodelle, die auf Diffusionsprozessen basieren, "Halluzinationen" zeigen, also Proben, die nie in den Trainingsdaten auftreten könnten. Aber woher kommen solche Halluzinationen? In diesem Paper untersuchen wir einen bestimmten Fehlermodus in Diffusionsmodellen, den wir als Modusinterpolation bezeichnen. Konkret stellen wir fest, dass Diffusionsmodelle sanft zwischen benachbarten Datenmodi im Trainingsset "interpolieren", um Proben zu generieren, die vollständig außerhalb der Trägermenge der ursprünglichen Trainingsverteilung liegen. Dieses Phänomen führt dazu, dass Diffusionsmodelle Artefakte generieren, die in realen Daten nie existierten (d. h. Halluzinationen). Wir untersuchen systematisch die Gründe für dieses Phänomen und seine Manifestation. Durch Experimente mit 1D- und 2D-Gaußverteilungen zeigen wir, wie eine diskontinuierliche Verlustlandschaft im Decoder des Diffusionsmodells zu einer Region führt, in der jede glatte Approximation solche Halluzinationen verursachen wird. Durch Experimente mit künstlichen Datensätzen verschiedener Formen zeigen wir, wie Halluzinationen zur Generierung von Kombinationen von Formen führen, die nie existierten. Schließlich zeigen wir, dass Diffusionsmodelle tatsächlich erkennen, wenn sie die Trägermenge verlassen und halluzinieren. Dies wird durch die hohe Varianz in der Trajektorie der generierten Probe in den letzten wenigen rückwärtigen Abtastprozessen erfasst. Unter Verwendung eines einfachen Maßes zur Erfassung dieser Varianz können wir über 95% der Halluzinationen zur Generierungszeit entfernen, während wir 96% der in der Trägermenge liegenden Proben beibehalten. Wir schließen unsere Untersuchung ab, indem wir die Auswirkungen solcher Halluzinationen (und ihrer Entfernung) auf den Zusammenbruch (und die Stabilisierung) des rekursiven Trainings anhand synthetischer Daten mit Experimenten an MNIST und dem 2D-Gauß-Datensatz zeigen. Wir veröffentlichen unseren Code unter https://github.com/locuslab/diffusion-model-hallucination.
English
Colloquially speaking, image generation models based upon diffusion processes are frequently said to exhibit "hallucinations," samples that could never occur in the training data. But where do such hallucinations come from? In this paper, we study a particular failure mode in diffusion models, which we term mode interpolation. Specifically, we find that diffusion models smoothly "interpolate" between nearby data modes in the training set, to generate samples that are completely outside the support of the original training distribution; this phenomenon leads diffusion models to generate artifacts that never existed in real data (i.e., hallucinations). We systematically study the reasons for, and the manifestation of this phenomenon. Through experiments on 1D and 2D Gaussians, we show how a discontinuous loss landscape in the diffusion model's decoder leads to a region where any smooth approximation will cause such hallucinations. Through experiments on artificial datasets with various shapes, we show how hallucination leads to the generation of combinations of shapes that never existed. Finally, we show that diffusion models in fact know when they go out of support and hallucinate. This is captured by the high variance in the trajectory of the generated sample towards the final few backward sampling process. Using a simple metric to capture this variance, we can remove over 95% of hallucinations at generation time while retaining 96% of in-support samples. We conclude our exploration by showing the implications of such hallucination (and its removal) on the collapse (and stabilization) of recursive training on synthetic data with experiments on MNIST and 2D Gaussians dataset. We release our code at https://github.com/locuslab/diffusion-model-hallucination.
PDF51December 6, 2024