潜在的事後因子の理論的基盤:複数証拠推論における形式的保証
Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
March 13, 2026
著者: Aliyu Agboola Alege
cs.AI
要旨
本論文では、確率的予測タスクにおいて複数の異種エビデンス項目を集約するための原理に基づくフレームワークである潜在事後因子(LPF)の完全な理論的特徴付けを提示する。医療診断、金融リスク評価、法的事件分析、規制遵守などの高リスク領域では多エビデンス推論が遍在するが、既存手法は形式的保証を欠くか、構造的に多エビデンスシナリオに対応できない。LPFは、各エビデンス項目を変分オートエンコーダーを通してガウス潜在事後分布に符号化し、モンテカルロ周辺化によって事後分布をソフト因子に変換し、正確な和積ネットワーク推論(LPF-SPN)または学習済みニューラル集約器(LPF-Learned)によって因子を集約する。
我々は、信頼できるAIの主要な要請を網羅する7つの形式的保証を証明する:較正保存性(ECE ≤ ε + C/√K_eff)、O(1/√M)で減衰するモンテカルロ誤差、N=4200で訓練-テスト格差が0.0085となる非自明なPACベイズ境界、情報理論的下限の1.12倍以内での動作、破損下でのO(εδ√K)という優雅な性能劣化(エビデンスの半数が敵対的に置換された場合でも88%の性能維持)、R^2=0.849でのO(1/√K)の較正減衰、および誤差0.002%未満の正確な認識論的-偶然的不確実性分解。全ての定理は、最大4,200の訓練例に及ぶ制御データセットで実証的に検証される。本理論フレームワークは、安全批判的応用における信頼できる多エビデンスAIの基盤としてLPFを確立する。
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned).
We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.