Modelos de Gargalo Conceitual Credais para Decomposição de Incerteza Epistêmica-Aleatória
Credal Concept Bottleneck Models for Epistemic-Aleatoric Uncertainty Decomposition
April 27, 2026
Autores: Tanmoy Mukherjee, Thomas Bailleux, Pierre Marquis, Zied Bouraoui
cs.AI
Resumo
Os Modelos de Gargalo de Conceitos (CBMs) realizam previsões por meio de conceitos interpretáveis por humanos, mas normalmente produzem probabilidades pontuais para os conceitos, o que funde a incerteza epistêmica (subespecificação redutível do modelo) com a incerteza aleatória (ambiguidade irreversível da entrada). Isso torna a incerteza a nível de conceito difícil de interpretar e, mais importante, difícil de agir. Apresentamos o CREDENCE (Credal Ensemble Concept Estimation), uma estrutura de CBM que decompõe a incerteza do conceito por construção. O CREDENCE representa cada conceito como uma previsão credal (um intervalo de probabilidade), deriva a incerteza epistêmica do desacordo entre diversas cabeças de conceito e estima a incerteza aleatória por meio de uma saída de ambiguidade dedicada, treinada para corresponder ao desacordo dos anotadores quando disponível. Os sinais resultantes apoiam decisões prescritivas: automatizar casos de baixa incerteza, priorizar a coleta de dados para casos de alta incerteza epistêmica, encaminhar casos de alta incerteza aleatória para revisão humana e abster-se quando ambas são altas. Em várias tarefas, mostramos que a incerteza epistêmica está positivamente associada a erros de previsão, enquanto a incerteza aleatória acompanha de perto o desacordo dos anotadores, fornecendo orientação além da correlação de erros. Nossa implementação está disponível no seguinte link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm
English
Concept Bottleneck Models (CBMs) predict through human-interpretable concepts, but they typically output point concept probabilities that conflate epistemic uncertainty (reducible model underspecification) with aleatoric uncertainty (irreducible input ambiguity). This makes concept-level uncertainty hard to interpret and, more importantly, hard to act upon. We introduce CREDENCE (Credal Ensemble Concept Estimation), a CBM framework that decomposes concept uncertainty by construction. CREDENCE represents each concept as a credal prediction (a probability interval), derives epistemic uncertainty from disagreement across diverse concept heads, and estimates aleatoric uncertainty via a dedicated ambiguity output trained to match annotator disagreement when available. The resulting signals support prescriptive decisions: automate low-uncertainty cases, prioritize data collection for high-epistemic cases, route high-aleatoric cases to human review, and abstain when both are high. Across several tasks, we show that epistemic uncertainty is positively associated with prediction errors, whereas aleatoric uncertainty closely tracks annotator disagreement, providing guidance beyond error correlation. Our implementation is available at the following link: https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm