Expliqueurs Conceptuels Probabilistes : Explications Conceptuelles Fiables pour les Modèles Fondamentaux en Vision
Probabilistic Conceptual Explainers: Trustworthy Conceptual Explanations for Vision Foundation Models
June 18, 2024
Auteurs: Hengyi Wang, Shiwei Tan, Hao Wang
cs.AI
Résumé
Les transformers pour la vision (ViTs) sont devenus un domaine d'intérêt majeur, notamment pour leur capacité à être entraînés conjointement avec de grands modèles de langage et à servir de modèles de base robustes pour la vision. Cependant, le développement de méthodes d'explication fiables pour les ViTs a pris du retard, en particulier dans le contexte des interprétations post-hoc des prédictions des ViTs. Les approches existantes de sélection de sous-images, telles que les modèles d'attribution de caractéristiques et les modèles conceptuels, ne répondent pas à ces attentes. Cet article propose cinq desiderata pour expliquer les ViTs -- fidélité, stabilité, parcimonie, structure multi-niveaux et parcimonie -- et démontre l'insuffisance des méthodes actuelles à répondre à ces critères de manière exhaustive. Nous introduisons un cadre d'explication variationnel bayésien, nommé ProbAbilistic Concept Explainers (PACE), qui modélise les distributions des embeddings de patchs pour fournir des explications conceptuelles post-hoc fiables. Notre analyse qualitative révèle les distributions des concepts au niveau des patchs, éclairant l'efficacité des ViTs en modélisant la distribution conjointe des embeddings de patchs et des prédictions des ViTs. De plus, ces explications au niveau des patchs comblent le fossé entre les explications au niveau de l'image et celles au niveau du jeu de données, complétant ainsi la structure multi-niveaux de PACE. À travers des expériences approfondies sur des jeux de données synthétiques et réels, nous démontrons que PACE surpasse les méthodes de pointe en termes des desiderata définis.
English
Vision transformers (ViTs) have emerged as a significant area of focus,
particularly for their capacity to be jointly trained with large language
models and to serve as robust vision foundation models. Yet, the development of
trustworthy explanation methods for ViTs has lagged, particularly in the
context of post-hoc interpretations of ViT predictions. Existing sub-image
selection approaches, such as feature-attribution and conceptual models, fall
short in this regard. This paper proposes five desiderata for explaining ViTs
-- faithfulness, stability, sparsity, multi-level structure, and parsimony --
and demonstrates the inadequacy of current methods in meeting these criteria
comprehensively. We introduce a variational Bayesian explanation framework,
dubbed ProbAbilistic Concept Explainers (PACE), which models the distributions
of patch embeddings to provide trustworthy post-hoc conceptual explanations.
Our qualitative analysis reveals the distributions of patch-level concepts,
elucidating the effectiveness of ViTs by modeling the joint distribution of
patch embeddings and ViT's predictions. Moreover, these patch-level
explanations bridge the gap between image-level and dataset-level explanations,
thus completing the multi-level structure of PACE. Through extensive
experiments on both synthetic and real-world datasets, we demonstrate that PACE
surpasses state-of-the-art methods in terms of the defined desiderata.Summary
AI-Generated Summary