잠재 사후 인자의 이론적 기초: 다중 증거 추론에 대한 형식적 보장
Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
March 13, 2026
저자: Aliyu Agboola Alege
cs.AI
초록
본 논문은 확률적 예측 과업에서 다양한 특성을 지닌 다중 증거 항목들을 통합하기 위한 원리 기반 프레임워크인 잠재 사후 인자(LPF)에 대한 완전한 이론적 특성화를 제시한다. 다중 증거 추론은 의료 진단, 금융 리스크 평가, 법률 사례 분석, 규제 준수 등의 고위험 분야에서 광범위하게 요구되나, 기존 접근법들은 형식적 보장을 결여하거나 구조적으로 다중 증거 시나리오를 처리하지 못한다. LPF는 변분 오토인코더를 통해 각 증거 항목을 가우시안 잠재 사후 분포로 인코딩하고, 몬테카를로 주변화를 통해 사후 분포를 소프트 인자로 변환한 후, 정확한 Sum-Product Network 추론(LPF-SPN) 또는 학습된 신경망 집계기(LPF-Learned)를 통해 인자들을 통합한다.
본 연구는 신뢰할 수 있는 AI의 핵심 요건을 아우르는 일곱 가지 형식적 보장을 증명한다: 보정 보존(ECE <= 엡실론 + C/제곱근(K_eff)); O(1/제곱근(M))으로 감소하는 몬테카를로 오차; N=4200에서 0.0085의 훈련-테스트 격차를 보이는 비공헌 PAC-베이즈 경계; 정보이론적 하한의 1.12배 내 작동; 절반의 증거가 적대적으로 교체된 상황에서 88% 성능을 유지하며 O(엡실론*델타*제곱근(K))의 점진적 성능 저하; R^2=0.849의 O(1/제곱근(K)) 보정 감소; 0.002% 미만 오차를 지닌 정확한 인식적-우연적 불확실성 분해. 모든 정리들은 최대 4,200개의 훈련 예제를 포함하는 통제된 데이터셋에서 실증적으로 검증되었다. 본 이론적 프레임워크는 LPF를 안전 중점 응용 분야에서 신뢰할 수 있는 다중 증거 AI의 기반으로 정립한다.
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned).
We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.