知らざるを知る:複数証拠の確率論的推論のための潜在事後因子モデル
I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning
March 13, 2026
著者: Aliyu Agboola Alege
cs.AI
要旨
現実世界の意思決定(納税コンプライアンス評価から医療診断まで)は、複数のノイズを含み潜在的に矛盾する証拠源を統合することを必要とする。既存のアプローチは、明示的な不確実性定量化を欠く(ニューラル集約手法)か、手動で設計された離散的述語に依存する(確率的論理フレームワーク)ため、非構造化データへのスケーラビリティが制限されている。
本研究では、Variational Autoencoder (VAE) の潜在事後分布をSum-Product Network (SPN) 推論のためのソフト尤度因子に変換するフレームワーク、Latent Posterior Factors (LPF) を提案する。これにより、較正された不確実性推定を保持しつつ、非構造化証拠に対する扱いやすい確率的推論を可能にする。LPFをLPF-SPN(構造化因子ベース推論)とLPF-Learned(エンドツーエンド学習型集約)として具体化し、共有された不確実性表現の下で、明示的な確率的推論と学習型集約の間の原理的な比較を可能にする。
8つの領域(7つの合成データとFEVERベンチマーク)にわたる評価では、LPF-SPNは高い精度(最大97.8%)、低い較正誤差(ECE 1.4%)、強力な確率的適合性を達成し、15の乱数シードにわたってEvidential Deep Learning、LLM、グラフベースのベースラインを大幅に上回った。
貢献:(1) 潜在的不確実性表現と構造化確率推論を架橋するフレームワーク。(2) 推論パラダイムの制御された比較を可能にする二重アーキテクチャ。(3) シード選択を含む再現可能な訓練方法論。(4) EDL、BERT、R-GCN、大規模言語モデルベースラインとの比較評価。(5) 領域横断的検証。(6) 関連論文における形式的保証。
English
Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data.
We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation.
Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds.
Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.