Деконструкция моделей денойзинга с диффузией для самообучения
Deconstructing Denoising Diffusion Models for Self-Supervised Learning
January 25, 2024
Авторы: Xinlei Chen, Zhuang Liu, Saining Xie, Kaiming He
cs.AI
Аннотация
В данном исследовании мы изучаем способности моделей деноизинговой диффузии (Denoising Diffusion Models, DDM), изначально разработанных для генерации изображений, к обучению представлений. Наш подход заключается в деконструкции DDM с постепенным преобразованием её в классический деноизинговый автокодировщик (Denoising Autoencoder, DAE). Эта процедура деконструкции позволяет нам исследовать, как различные компоненты современных DDM влияют на обучение представлений в рамках самообучения. Мы наблюдаем, что лишь очень немногие современные компоненты критически важны для обучения качественных представлений, в то время как многие другие оказываются несущественными. В результате наше исследование приводит к подходу, который значительно упрощён и во многом напоминает классический DAE. Мы надеемся, что наша работа возродит интерес к семейству классических методов в контексте современных подходов к самообучению.
English
In this study, we examine the representation learning abilities of Denoising
Diffusion Models (DDM) that were originally purposed for image generation. Our
philosophy is to deconstruct a DDM, gradually transforming it into a classical
Denoising Autoencoder (DAE). This deconstructive procedure allows us to explore
how various components of modern DDMs influence self-supervised representation
learning. We observe that only a very few modern components are critical for
learning good representations, while many others are nonessential. Our study
ultimately arrives at an approach that is highly simplified and to a large
extent resembles a classical DAE. We hope our study will rekindle interest in a
family of classical methods within the realm of modern self-supervised
learning.