ChatPaper.aiChatPaper

자기 지도 학습을 위한 디노이징 디퓨전 모델 해체

Deconstructing Denoising Diffusion Models for Self-Supervised Learning

January 25, 2024
저자: Xinlei Chen, Zhuang Liu, Saining Xie, Kaiming He
cs.AI

초록

본 연구에서는 원래 이미지 생성을 위해 개발된 디노이징 확산 모델(Denoising Diffusion Models, DDM)의 표현 학습 능력을 조사합니다. 우리의 철학은 DDM을 해체하여 점진적으로 고전적인 디노이징 오토인코더(Denoising Autoencoder, DAE)로 변환하는 것입니다. 이러한 해체적 접근을 통해 현대 DDM의 다양한 구성 요소가 자기 지도 표현 학습에 미치는 영향을 탐구할 수 있습니다. 우리는 좋은 표현을 학습하는 데 있어 현대적 구성 요소 중 극히 일부만이 중요하며, 나머지 다수는 불필요하다는 사실을 관찰했습니다. 본 연구는 궁극적으로 고전적인 DAE와 상당 부분 유사한 매우 단순화된 접근법에 도달했습니다. 우리는 이 연구가 현대 자기 지도 학습 영역 내에서 고전적 방법군에 대한 관심을 다시 불러일으키기를 바랍니다.
English
In this study, we examine the representation learning abilities of Denoising Diffusion Models (DDM) that were originally purposed for image generation. Our philosophy is to deconstruct a DDM, gradually transforming it into a classical Denoising Autoencoder (DAE). This deconstructive procedure allows us to explore how various components of modern DDMs influence self-supervised representation learning. We observe that only a very few modern components are critical for learning good representations, while many others are nonessential. Our study ultimately arrives at an approach that is highly simplified and to a large extent resembles a classical DAE. We hope our study will rekindle interest in a family of classical methods within the realm of modern self-supervised learning.
PDF181December 15, 2024