ChatPaper.aiChatPaper

확산 분류기는 구성성을 이해하지만, 조건이 적용됩니다.

Diffusion Classifiers Understand Compositionality, but Conditions Apply

May 23, 2025
저자: Yujin Jeong, Arnas Uselis, Seong Joon Oh, Anna Rohrbach
cs.AI

초록

시각적 장면을 이해하는 것은 인간 지능의 근본적인 요소입니다. 판별 모델(discriminative models)이 컴퓨터 비전을 크게 발전시켰지만, 이들은 종종 구성적 이해(compositional understanding)에 어려움을 겪습니다. 반면, 최근의 생성적 텍스트-이미지 확산 모델(generative text-to-image diffusion models)은 복잡한 장면을 합성하는 데 탁월한 능력을 보여주며, 이는 내재된 구성적 능력을 시사합니다. 이를 바탕으로, 확산 모델을 판별 작업에 재활용하기 위해 제로샷 확산 분류기(zero-shot diffusion classifiers)가 제안되었습니다. 이전 연구는 판별적 구성 시나리오에서 유망한 결과를 보여주었지만, 소수의 벤치마크와 모델이 성공하는 조건에 대한 비교적 얕은 분석으로 인해 이러한 결과는 아직 예비적인 수준에 머물러 있습니다. 이를 해결하기 위해, 우리는 다양한 구성 작업에서 확산 분류기의 판별 능력에 대한 포괄적인 연구를 제시합니다. 구체적으로, 우리의 연구는 세 가지 확산 모델(SD 1.5, 2.0, 그리고 처음으로 3-m)을 포함하며, 10개의 데이터셋과 30개 이상의 작업을 다룹니다. 더 나아가, 우리는 대상 데이터셋 도메인이 각각의 성능에 미치는 역할을 밝히고, 도메인 효과를 분리하기 위해 확산 모델 자체가 생성한 이미지로 구성된 새로운 진단 벤치마크인 Self-Bench를 소개합니다. 마지막으로, 우리는 타임스텝 가중치의 중요성을 탐구하고, 특히 SD3-m의 경우 도메인 격차와 타임스텝 민감도 사이의 관계를 발견합니다. 요약하자면, 확산 분류기는 구성성을 이해하지만, 조건이 적용됩니다! 코드와 데이터셋은 https://github.com/eugene6923/Diffusion-Classifiers-Compositionality에서 확인할 수 있습니다.
English
Understanding visual scenes is fundamental to human intelligence. While discriminative models have significantly advanced computer vision, they often struggle with compositional understanding. In contrast, recent generative text-to-image diffusion models excel at synthesizing complex scenes, suggesting inherent compositional capabilities. Building on this, zero-shot diffusion classifiers have been proposed to repurpose diffusion models for discriminative tasks. While prior work offered promising results in discriminative compositional scenarios, these results remain preliminary due to a small number of benchmarks and a relatively shallow analysis of conditions under which the models succeed. To address this, we present a comprehensive study of the discriminative capabilities of diffusion classifiers on a wide range of compositional tasks. Specifically, our study covers three diffusion models (SD 1.5, 2.0, and, for the first time, 3-m) spanning 10 datasets and over 30 tasks. Further, we shed light on the role that target dataset domains play in respective performance; to isolate the domain effects, we introduce a new diagnostic benchmark Self-Bench comprised of images created by diffusion models themselves. Finally, we explore the importance of timestep weighting and uncover a relationship between domain gap and timestep sensitivity, particularly for SD3-m. To sum up, diffusion classifiers understand compositionality, but conditions apply! Code and dataset are available at https://github.com/eugene6923/Diffusion-Classifiers-Compositionality.

Summary

AI-Generated Summary

PDF183May 26, 2025