ChatPaper.aiChatPaper

I classificatori basati su diffusione comprendono la composizionalità, ma con alcune condizioni.

Diffusion Classifiers Understand Compositionality, but Conditions Apply

May 23, 2025
Autori: Yujin Jeong, Arnas Uselis, Seong Joon Oh, Anna Rohrbach
cs.AI

Abstract

Comprendere le scene visive è fondamentale per l'intelligenza umana. Sebbene i modelli discriminativi abbiano fatto avanzare significativamente la visione artificiale, spesso faticano a comprendere la composizione. Al contrario, i recenti modelli generativi di diffusione testo-immagine eccellono nella sintesi di scene complesse, suggerendo capacità compositive intrinseche. Sulla base di ciò, sono stati proposti classificatori di diffusione zero-shot per riutilizzare i modelli di diffusione in compiti discriminativi. Sebbene lavori precedenti abbiano offerto risultati promettenti in scenari compositivi discriminativi, questi risultati rimangono preliminari a causa di un numero limitato di benchmark e di un'analisi relativamente superficiale delle condizioni in cui i modelli hanno successo. Per affrontare questo problema, presentiamo uno studio completo delle capacità discriminative dei classificatori di diffusione su un'ampia gamma di compiti compositivi. Nello specifico, il nostro studio copre tre modelli di diffusione (SD 1.5, 2.0 e, per la prima volta, 3-m) su 10 dataset e oltre 30 task. Inoltre, gettiamo luce sul ruolo che i domini dei dataset target giocano nelle rispettive prestazioni; per isolare gli effetti del dominio, introduciamo un nuovo benchmark diagnostico, Self-Bench, composto da immagini create dai modelli di diffusione stessi. Infine, esploriamo l'importanza della ponderazione dei timestep e scopriamo una relazione tra il gap di dominio e la sensibilità ai timestep, in particolare per SD3-m. In sintesi, i classificatori di diffusione comprendono la composizionalità, ma con alcune condizioni! Il codice e il dataset sono disponibili all'indirizzo https://github.com/eugene6923/Diffusion-Classifiers-Compositionality.
English
Understanding visual scenes is fundamental to human intelligence. While discriminative models have significantly advanced computer vision, they often struggle with compositional understanding. In contrast, recent generative text-to-image diffusion models excel at synthesizing complex scenes, suggesting inherent compositional capabilities. Building on this, zero-shot diffusion classifiers have been proposed to repurpose diffusion models for discriminative tasks. While prior work offered promising results in discriminative compositional scenarios, these results remain preliminary due to a small number of benchmarks and a relatively shallow analysis of conditions under which the models succeed. To address this, we present a comprehensive study of the discriminative capabilities of diffusion classifiers on a wide range of compositional tasks. Specifically, our study covers three diffusion models (SD 1.5, 2.0, and, for the first time, 3-m) spanning 10 datasets and over 30 tasks. Further, we shed light on the role that target dataset domains play in respective performance; to isolate the domain effects, we introduce a new diagnostic benchmark Self-Bench comprised of images created by diffusion models themselves. Finally, we explore the importance of timestep weighting and uncover a relationship between domain gap and timestep sensitivity, particularly for SD3-m. To sum up, diffusion classifiers understand compositionality, but conditions apply! Code and dataset are available at https://github.com/eugene6923/Diffusion-Classifiers-Compositionality.
PDF223May 26, 2025