Fondamenti Teorici dei Fattori Posteriori Latenti: Garanzie Formali per il Ragionamento con Evidenze Multiple
Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
March 13, 2026
Autori: Aliyu Agboola Alege
cs.AI
Abstract
Presentiamo una caratterizzazione teorica completa dei Fattori Posteriori Latenti (LPF), un framework metodologicamente solido per aggregare molteplici elementi di prova eterogenei in compiti di previsione probabilistica. Il ragionamento basato su evidenze multiple sorge in modo pervasivo in domini ad alto rischio, inclusi la diagnosi sanitaria, la valutazione del rischio finanziario, l'analisi di casi legali e la conformità normativa, eppure gli approcci esistenti o mancano di garanzie formali o non riescono a gestire architetturalmente scenari multi-evidenza. LPF codifica ogni elemento di prova in un posteriore latente Gaussiano tramite un autoencoder variazionale, converte i posteriori in fattori soft attraverso la marginalizzazione Monte Carlo, e aggrega i fattori tramite inferenza esatta in una Sum-Product Network (LPF-SPN) o tramite un aggregatore neurale appreso (LPF-Learned).
Dimostriamo sette garanzie formali che coprono i requisiti chiave per un'IA affidabile: Conservazione della Calibrazione (ECE <= epsilon + C/sqrt(K_eff)); Errore Monte Carlo che decade come O(1/sqrt(M)); un limite PAC-Bayes non vacuo con un gap train-test di 0,0085 per N=4200; operatività entro 1,12 volte il limite inferiore teorico dell'informazione; degradazione graduale come O(epsilon*delta*sqrt(K)) in caso di corruzione, mantenendo l'88% delle prestazioni con metà delle evidenze sostituite in modo avversariale; decadimento della calibrazione come O(1/sqrt(K)) con R^2=0,849; e una scomposizione esatta dell'incertezza epistemica-aleatoria con errore inferiore allo 0,002%. Tutti i teoremi sono convalidati empiricamente su dataset controllati che comprendono fino a 4.200 esempi di addestramento. Il nostro framework teorico stabilisce LPF come fondamento per un'IA multi-evidenza affidabile in applicazioni critiche per la sicurezza.
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned).
We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.