살라이언시 맵 재고: 인간 인지에 부합하는 설명 체계 및 평가 프레임워크
Rethinking Saliency Maps: A Cognitive Human Aligned Taxonomy and Evaluation Framework for Explanations
November 17, 2025
저자: Yehonatan Elisha, Seffi Cohen, Oren Barkan, Noam Koenigstein
cs.AI
초록
살성시 맵은 딥러닝에서 시각적 설명을 위해 널리 사용되지만, 그 의도된 목적과 다양한 사용자 질의와의 정합성에 관한 근본적인 합의가 부족한 상황이 지속되고 있습니다. 이러한 모호성은 설명 방법의 효과적인 평가와 실용적 유용성을 저해합니다. 본 연구는 이러한 격차를 해소하기 위해 기준 프레임 × 세분성(RFxG) 분류 체계를 도입합니다. 이는 원칙에 기반한 개념적 프레임워크로, 살성시 설명을 두 가지 핵심 축을 따라 체계화합니다:
**기준 프레임**: 점별 설명("왜 이 예측인가?")과 대조적 설명("왜 대안이 아닌 이것인가?")을 구분합니다.
**세분성**: 세분화된 클래스 수준(예: "왜 허스키인가?")에서 거시적인 그룹 수준(예: "왜 개인가?")에 이르는 해석의 범위를 다룹니다.
RFxG 렌즈를 통해 우리는 기존 평가 지표의 중대한 한계를 입증합니다. 이러한 지표는 압도적으로 점별 정합성에 초점을 두는 반면, 대조적 추론과 의미론적 세분성을 간과하고 있습니다. RFxG 두 차원에 걸쳐 설명 품질을 체계적으로 평가하기 위해, 우리는 네 가지 새로운 정합성 지표를 제안합니다. 우리의 포괄적 평가 프레임워크는 이러한 지표를 10개의 최신 살성시 방법, 4가지 모델 아키텍처, 3개의 데이터셋에 적용합니다. 사용자 의도 주도의 평가로의 전환을 촉구함으로써, 본 연구는 근본적인 모델 행동에 충실할 뿐만 아니라 인간의 이해와 탐구의 복잡성과 의미 있게 조응하는 시각적 설명을 개발하는 데 필요한 개념적 기반과 실용적 도구를 동시에 제공합니다.
English
Saliency maps are widely used for visual explanations in deep learning, but a fundamental lack of consensus persists regarding their intended purpose and alignment with diverse user queries. This ambiguity hinders the effective evaluation and practical utility of explanation methods. We address this gap by introducing the Reference-Frame times Granularity (RFxG) taxonomy, a principled conceptual framework that organizes saliency explanations along two essential axes:Reference-Frame: Distinguishing between pointwise ("Why this prediction?") and contrastive ("Why this and not an alternative?") explanations. Granularity: Ranging from fine-grained class-level (e.g., "Why Husky?") to coarse-grained group-level (e.g., "Why Dog?") interpretations. Using the RFxG lens, we demonstrate critical limitations in existing evaluation metrics, which overwhelmingly prioritize pointwise faithfulness while neglecting contrastive reasoning and semantic granularity. To systematically assess explanation quality across both RFxG dimensions, we propose four novel faithfulness metrics. Our comprehensive evaluation framework applies these metrics to ten state-of-the-art saliency methods, four model architectures, and three datasets. By advocating a shift toward user-intent-driven evaluation, our work provides both the conceptual foundation and the practical tools necessary to develop visual explanations that are not only faithful to the underlying model behavior but are also meaningfully aligned with the complexity of human understanding and inquiry.