ChatPaper.aiChatPaper

Fondements théoriques des facteurs postérieurs latents : garanties formelles pour le raisonnement à preuves multiples

Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning

March 13, 2026
Auteurs: Aliyu Agboola Alege
cs.AI

Résumé

Nous présentons une caractérisation théorique complète des Facteurs Postérieurs Latents (LPF), un cadre méthodologique pour l'agrégation de multiples éléments de preuve hétérogènes dans les tâches de prédiction probabiliste. Le raisonnement multi-preuve apparaît de manière omniprésente dans des domaines à haut risque incluant le diagnostic médical, l'évaluation du risque financier, l'analyse de cas juridiques et la conformité réglementaire. Pourtant, les approches existantes manquent soit de garanties formelles, soit échouent architecturalement à gérer les scénarios multi-preuve. LPF encode chaque élément de preuve en une postérieure latente gaussienne via un autoencodeur variationnel, convertit les postérieures en facteurs souples par marginalisation de Monte Carlo, et agrège les facteurs via une inférence exacte par réseau somme-produit (LPF-SPN) ou un agrégateur neuronal appris (LPF-Learned). Nous démontrons sept garanties formelles couvrant les desiderata clés pour une IA digne de confiance : Préservation de l'étalonnage (ECE <= epsilon + C/sqrt(K_eff)) ; Erreur de Monte Carlo décroissant en O(1/sqrt(M)) ; une borne PAC-Bayes non triviale avec un écart entraînement-test de 0,0085 à N=4200 ; un fonctionnement à 1,12 fois la borne inférieure informationnelle ; une dégradation gracieuse en O(epsilon*delta*sqrt(K)) sous corruption, maintenant 88% des performances avec la moitié des preuves adversarialement remplacées ; une dégradation de l'étalonnage en O(1/sqrt(K)) avec R²=0,849 ; et une décomposition exacte de l'incertitude épistémique-aléatoire avec une erreur inférieure à 0,002%. Tous les théorèmes sont validés empiriquement sur des jeux de données contrôlés allant jusqu'à 4 200 exemples d'entraînement. Notre cadre théorique établit LPF comme fondation pour une IA multi-preuve digne de confiance dans les applications critiques pour la sécurité.
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned). We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.
PDF12March 19, 2026