ChatPaper.aiChatPaper

Spiegatori Concettuali Probabilistici: Spiegazioni Concettuali Affidabili per Modelli di Base per la Visione

Probabilistic Conceptual Explainers: Trustworthy Conceptual Explanations for Vision Foundation Models

June 18, 2024
Autori: Hengyi Wang, Shiwei Tan, Hao Wang
cs.AI

Abstract

I transformer per la visione (ViT) sono emersi come un'area di grande interesse, in particolare per la loro capacità di essere addestrati congiuntamente a modelli linguistici di grandi dimensioni e di fungere da modelli di base robusti per la visione. Tuttavia, lo sviluppo di metodi di spiegazione affidabili per i ViT è rimasto indietro, specialmente nel contesto delle interpretazioni post-hoc delle previsioni dei ViT. Gli approcci esistenti di selezione sub-immagine, come i modelli di attribuzione delle caratteristiche e concettuali, si rivelano insufficienti in questo senso. Questo articolo propone cinque desiderata per spiegare i ViT -- fedeltà, stabilità, sparsità, struttura multi-livello e parsimonia -- e dimostra l'inadeguatezza dei metodi attuali nel soddisfare questi criteri in modo completo. Introduciamo un framework di spiegazione bayesiana variazionale, denominato ProbAbilistic Concept Explainers (PACE), che modella le distribuzioni degli embedding di patch per fornire spiegazioni concettuali post-hoc affidabili. La nostra analisi qualitativa rivela le distribuzioni dei concetti a livello di patch, chiarendo l'efficacia dei ViT modellando la distribuzione congiunta degli embedding di patch e delle previsioni dei ViT. Inoltre, queste spiegazioni a livello di patch colmano il divario tra le spiegazioni a livello di immagine e di dataset, completando così la struttura multi-livello di PACE. Attraverso esperimenti estesi su dataset sia sintetici che del mondo reale, dimostriamo che PACE supera i metodi all'avanguardia in termini dei desiderata definiti.
English
Vision transformers (ViTs) have emerged as a significant area of focus, particularly for their capacity to be jointly trained with large language models and to serve as robust vision foundation models. Yet, the development of trustworthy explanation methods for ViTs has lagged, particularly in the context of post-hoc interpretations of ViT predictions. Existing sub-image selection approaches, such as feature-attribution and conceptual models, fall short in this regard. This paper proposes five desiderata for explaining ViTs -- faithfulness, stability, sparsity, multi-level structure, and parsimony -- and demonstrates the inadequacy of current methods in meeting these criteria comprehensively. We introduce a variational Bayesian explanation framework, dubbed ProbAbilistic Concept Explainers (PACE), which models the distributions of patch embeddings to provide trustworthy post-hoc conceptual explanations. Our qualitative analysis reveals the distributions of patch-level concepts, elucidating the effectiveness of ViTs by modeling the joint distribution of patch embeddings and ViT's predictions. Moreover, these patch-level explanations bridge the gap between image-level and dataset-level explanations, thus completing the multi-level structure of PACE. Through extensive experiments on both synthetic and real-world datasets, we demonstrate that PACE surpasses state-of-the-art methods in terms of the defined desiderata.
PDF161February 8, 2026