ChatPaper.aiChatPaper

Comprendere le Allucinazioni nei Modelli di Diffusione attraverso l'Interpolazione di Modo

Understanding Hallucinations in Diffusion Models through Mode Interpolation

June 13, 2024
Autori: Sumukh K Aithal, Pratyush Maini, Zachary C. Lipton, J. Zico Kolter
cs.AI

Abstract

In termini colloquiali, i modelli di generazione di immagini basati su processi di diffusione sono spesso descritti come soggetti a "allucinazioni", ovvero campioni che non potrebbero mai verificarsi nei dati di addestramento. Ma da dove provengono queste allucinazioni? In questo articolo, studiamo una particolare modalità di fallimento nei modelli di diffusione, che definiamo interpolazione di modi. Nello specifico, scopriamo che i modelli di diffusione "interpolano" in modo fluido tra modi di dati vicini nel set di addestramento, generando campioni che si trovano completamente al di fuori del supporto della distribuzione di addestramento originale; questo fenomeno porta i modelli di diffusione a generare artefatti che non sono mai esistiti nei dati reali (cioè, allucinazioni). Studiamo sistematicamente le ragioni e le manifestazioni di questo fenomeno. Attraverso esperimenti su Gaussiane 1D e 2D, mostriamo come un paesaggio di perdita discontinuo nel decodificatore del modello di diffusione porti a una regione in cui qualsiasi approssimazione fluida causerà tali allucinazioni. Attraverso esperimenti su dataset artificiali con varie forme, mostriamo come l'allucinazione porti alla generazione di combinazioni di forme che non sono mai esistite. Infine, dimostriamo che i modelli di diffusione in realtà sanno quando escono dal supporto e allucinano. Questo è catturato dall'elevata varianza nella traiettoria del campione generato verso le ultime fasi del processo di campionamento inverso. Utilizzando una semplice metrica per catturare questa varianza, possiamo rimuovere oltre il 95% delle allucinazioni al momento della generazione, mantenendo il 96% dei campioni all'interno del supporto. Concludiamo la nostra esplorazione mostrando le implicazioni di tali allucinazioni (e della loro rimozione) sul collasso (e sulla stabilizzazione) dell'addestramento ricorsivo su dati sintetici, con esperimenti sul dataset MNIST e su Gaussiane 2D. Rilasciamo il nostro codice su https://github.com/locuslab/diffusion-model-hallucination.
English
Colloquially speaking, image generation models based upon diffusion processes are frequently said to exhibit "hallucinations," samples that could never occur in the training data. But where do such hallucinations come from? In this paper, we study a particular failure mode in diffusion models, which we term mode interpolation. Specifically, we find that diffusion models smoothly "interpolate" between nearby data modes in the training set, to generate samples that are completely outside the support of the original training distribution; this phenomenon leads diffusion models to generate artifacts that never existed in real data (i.e., hallucinations). We systematically study the reasons for, and the manifestation of this phenomenon. Through experiments on 1D and 2D Gaussians, we show how a discontinuous loss landscape in the diffusion model's decoder leads to a region where any smooth approximation will cause such hallucinations. Through experiments on artificial datasets with various shapes, we show how hallucination leads to the generation of combinations of shapes that never existed. Finally, we show that diffusion models in fact know when they go out of support and hallucinate. This is captured by the high variance in the trajectory of the generated sample towards the final few backward sampling process. Using a simple metric to capture this variance, we can remove over 95% of hallucinations at generation time while retaining 96% of in-support samples. We conclude our exploration by showing the implications of such hallucination (and its removal) on the collapse (and stabilization) of recursive training on synthetic data with experiments on MNIST and 2D Gaussians dataset. We release our code at https://github.com/locuslab/diffusion-model-hallucination.
PDF51February 7, 2026