ChatPaper.aiChatPaper

Деконструкция моделей денойзинга с диффузией для самообучения

Deconstructing Denoising Diffusion Models for Self-Supervised Learning

January 25, 2024
Авторы: Xinlei Chen, Zhuang Liu, Saining Xie, Kaiming He
cs.AI

Аннотация

В данном исследовании мы изучаем способности моделей деноизинговой диффузии (Denoising Diffusion Models, DDM), изначально разработанных для генерации изображений, к обучению представлений. Наш подход заключается в деконструкции DDM с постепенным преобразованием её в классический деноизинговый автокодировщик (Denoising Autoencoder, DAE). Эта процедура деконструкции позволяет нам исследовать, как различные компоненты современных DDM влияют на обучение представлений в рамках самообучения. Мы наблюдаем, что лишь очень немногие современные компоненты критически важны для обучения качественных представлений, в то время как многие другие оказываются несущественными. В результате наше исследование приводит к подходу, который значительно упрощён и во многом напоминает классический DAE. Мы надеемся, что наша работа возродит интерес к семейству классических методов в контексте современных подходов к самообучению.
English
In this study, we examine the representation learning abilities of Denoising Diffusion Models (DDM) that were originally purposed for image generation. Our philosophy is to deconstruct a DDM, gradually transforming it into a classical Denoising Autoencoder (DAE). This deconstructive procedure allows us to explore how various components of modern DDMs influence self-supervised representation learning. We observe that only a very few modern components are critical for learning good representations, while many others are nonessential. Our study ultimately arrives at an approach that is highly simplified and to a large extent resembles a classical DAE. We hope our study will rekindle interest in a family of classical methods within the realm of modern self-supervised learning.
PDF181December 15, 2024