ChatPaper.aiChatPaper

Modelli a Collo di Bottiglia Concettuale Credal per la Scomposizione dell'Incertezza Epistemica-Aleatoria

Credal Concept Bottleneck Models for Epistemic-Aleatoric Uncertainty Decomposition

April 27, 2026
Autori: Tanmoy Mukherjee, Thomas Bailleux, Pierre Marquis, Zied Bouraoui
cs.AI

Abstract

I Modelli a Collo di Bottiglia Concettuale (CBM) prevedono attraverso concetti interpretabili dall'uomo, ma tipicamente restituiscono probabilità puntuali dei concetti che confondono l'incertezza epistemica (sotto-specificazione del modello riducibile) con l'incertezza aleatoria (ambiguità dell'input irriducibile). Ciò rende l'incertezza a livello concettuale difficile da interpretare e, cosa più importante, difficile su cui agire. Introduciamo CREDENCE (Credal Ensemble Concept Estimation), un framework CBM che scompone l'incertezza concettuale per costruzione. CREDENCE rappresenta ogni concetto come una previsione credale (un intervallo di probabilità), deriva l'incertezza epistemica dal disaccordo tra diverse "teste concettuali" (concept heads) e stima l'incertezza aleatoria attraverso un output dedicato all'ambiguità, addestrato per corrispondere al disaccordo tra annotatori quando disponibile. I segnali risultanti supportano decisioni prescrittive: automatizzare i casi a bassa incertezza, dare priorità alla raccolta di dati per i casi ad alta incertezza epistemica, indirizzare i casi ad alta incertezza aleatoria alla revisione umana e astenersi quando entrambe sono elevate. In diverse attività, mostriamo che l'incertezza epistemica è positivamente associata agli errori di previsione, mentre l'incertezza aleatoria segue da vicino il disaccordo tra annotatori, fornendo una guida che va oltre la correlazione con l'errore. La nostra implementazione è disponibile al seguente link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm
English
Concept Bottleneck Models (CBMs) predict through human-interpretable concepts, but they typically output point concept probabilities that conflate epistemic uncertainty (reducible model underspecification) with aleatoric uncertainty (irreducible input ambiguity). This makes concept-level uncertainty hard to interpret and, more importantly, hard to act upon. We introduce CREDENCE (Credal Ensemble Concept Estimation), a CBM framework that decomposes concept uncertainty by construction. CREDENCE represents each concept as a credal prediction (a probability interval), derives epistemic uncertainty from disagreement across diverse concept heads, and estimates aleatoric uncertainty via a dedicated ambiguity output trained to match annotator disagreement when available. The resulting signals support prescriptive decisions: automate low-uncertainty cases, prioritize data collection for high-epistemic cases, route high-aleatoric cases to human review, and abstain when both are high. Across several tasks, we show that epistemic uncertainty is positively associated with prediction errors, whereas aleatoric uncertainty closely tracks annotator disagreement, providing guidance beyond error correlation. Our implementation is available at the following link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm
PDF01April 29, 2026