ChatPaper.aiChatPaper

Credal Concept Bottleneck-modellen voor Epistemisch-Aleatorische Onzekerheidsdecompositie

Credal Concept Bottleneck Models for Epistemic-Aleatoric Uncertainty Decomposition

April 27, 2026
Auteurs: Tanmoy Mukherjee, Thomas Bailleux, Pierre Marquis, Zied Bouraoui
cs.AI

Samenvatting

Concept Bottleneck Models (CBM's) voorspellen via menselijk interpreteerbare concepten, maar geven doorgaans puntkanswaarden voor concepten af die epistemische onzekerheid (reduceerbare modelspecificatie) vermengen met aleatorische onzekerheid (onherleidbare inputambiguïteit). Dit maakt onzekerheid op conceptniveau moeilijk interpreteerbaar en, belangrijker nog, moeilijk actie op te ondernemen. Wij introduceren CREDENCE (Credal Ensemble Concept Estimation), een CBM-raamwerk dat conceptonzekerheid van nature decomposeert. CREDENCE representeert elk concept als een credale voorspelling (een kansinterval), leidt epistemische onzekerheid af uit onenigheid tussen diverse conceptkoppen, en schat aleatorische onzekerheid via een speciale ambiguïteitsoutput die wordt getraind om onenigheid tussen annotatoren te evenaren wanneer deze beschikbaar is. De resulterende signalen ondersteunen prescriptieve beslissingen: automatiseer gevallen met lage onzekerheid, prioriteer datacollectie voor gevallen met hoge epistemische onzekerheid, verwijs gevallen met hoge aleatorische onzekerheid door naar menselijke beoordeling, en onthouding wanneer beide hoog zijn. Over verschillende taken tonen we aan dat epistemische onzekerheid positief gecorreleerd is met voorspellingsfouten, terwijl aleatorische onzekerheid nauw aansluit bij onenigheid tussen annotatoren, wat begeleiding biedt die verder gaat dan foutcorrelatie. Onze implementatie is beschikbaar op de volgende link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm
English
Concept Bottleneck Models (CBMs) predict through human-interpretable concepts, but they typically output point concept probabilities that conflate epistemic uncertainty (reducible model underspecification) with aleatoric uncertainty (irreducible input ambiguity). This makes concept-level uncertainty hard to interpret and, more importantly, hard to act upon. We introduce CREDENCE (Credal Ensemble Concept Estimation), a CBM framework that decomposes concept uncertainty by construction. CREDENCE represents each concept as a credal prediction (a probability interval), derives epistemic uncertainty from disagreement across diverse concept heads, and estimates aleatoric uncertainty via a dedicated ambiguity output trained to match annotator disagreement when available. The resulting signals support prescriptive decisions: automate low-uncertainty cases, prioritize data collection for high-epistemic cases, route high-aleatoric cases to human review, and abstain when both are high. Across several tasks, we show that epistemic uncertainty is positively associated with prediction errors, whereas aleatoric uncertainty closely tracks annotator disagreement, providing guidance beyond error correlation. Our implementation is available at the following link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm
PDF01April 29, 2026