ChatPaper.aiChatPaper

Понимание галлюцинаций в моделях диффузии через интерполяцию режимов

Understanding Hallucinations in Diffusion Models through Mode Interpolation

June 13, 2024
Авторы: Sumukh K Aithal, Pratyush Maini, Zachary C. Lipton, J. Zico Kolter
cs.AI

Аннотация

В общем разговоре модели генерации изображений на основе диффузионных процессов часто называют "галлюцинациями", образцами, которые никогда не могли возникнуть в обучающих данных. Но откуда берутся такие галлюцинации? В данной статье мы изучаем конкретный вид неудачного поведения в моделях диффузии, который мы называем интерполяцией моды. Конкретно, мы обнаружили, что модели диффузии плавно "интерполируют" между близкими режимами данных в обучающем наборе, чтобы генерировать образцы, полностью выходящие за пределы исходного распределения обучающих данных; этот феномен приводит к появлению в моделях диффузии артефактов, которые никогда не существовали в реальных данных (т.е. галлюцинации). Мы систематически изучаем причины и проявления этого явления. Через эксперименты с одномерными и двумерными гауссовскими распределениями мы показываем, как разрывный ландшафт потерь в декодере модели диффузии приводит к области, где любое плавное приближение вызовет такие галлюцинации. Через эксперименты на искусственных наборах данных с различными формами мы показываем, как галлюцинация приводит к генерации комбинаций форм, которые никогда не существовали. Наконец, мы показываем, что модели диффузии фактически знают, когда они выходят за пределы и галлюцинируют. Это отражается высокой дисперсией в траектории сгенерированного образца к последним нескольким обратным процессам выборки. Используя простую метрику для оценки этой дисперсии, мы можем устранить более 95% галлюцинаций на этапе генерации, сохраняя при этом 96% образцов в пределах поддержки. Мы завершаем наше исследование, показывая последствия таких галлюцинаций (и их устранения) на коллапс (и стабилизацию) рекурсивного обучения на синтетических данных с экспериментами на наборе данных MNIST и двумерных гауссовских данных. Мы выкладываем наш код на https://github.com/locuslab/diffusion-model-hallucination.
English
Colloquially speaking, image generation models based upon diffusion processes are frequently said to exhibit "hallucinations," samples that could never occur in the training data. But where do such hallucinations come from? In this paper, we study a particular failure mode in diffusion models, which we term mode interpolation. Specifically, we find that diffusion models smoothly "interpolate" between nearby data modes in the training set, to generate samples that are completely outside the support of the original training distribution; this phenomenon leads diffusion models to generate artifacts that never existed in real data (i.e., hallucinations). We systematically study the reasons for, and the manifestation of this phenomenon. Through experiments on 1D and 2D Gaussians, we show how a discontinuous loss landscape in the diffusion model's decoder leads to a region where any smooth approximation will cause such hallucinations. Through experiments on artificial datasets with various shapes, we show how hallucination leads to the generation of combinations of shapes that never existed. Finally, we show that diffusion models in fact know when they go out of support and hallucinate. This is captured by the high variance in the trajectory of the generated sample towards the final few backward sampling process. Using a simple metric to capture this variance, we can remove over 95% of hallucinations at generation time while retaining 96% of in-support samples. We conclude our exploration by showing the implications of such hallucination (and its removal) on the collapse (and stabilization) of recursive training on synthetic data with experiments on MNIST and 2D Gaussians dataset. We release our code at https://github.com/locuslab/diffusion-model-hallucination.

Summary

AI-Generated Summary

PDF51December 6, 2024