Fundamentos Teóricos de los Factores Posteriores Latentes: Garantías Formales para el Razonamiento con Múltiples Evidencias
Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
March 13, 2026
Autores: Aliyu Agboola Alege
cs.AI
Resumen
Presentamos una caracterización teórica completa de Factores Posteriores Latentes (LPF), un marco fundamentado para agregar múltiples elementos de evidencia heterogéneos en tareas de predicción probabilística. El razonamiento con múltiples evidencias surge de manera ubicua en dominios de alto riesgo, incluyendo el diagnóstico médico, la evaluación de riesgos financieros, el análisis de casos legales y el cumplimiento normativo; sin embargo, los enfoques existentes carecen de garantías formales o no manejan escenarios multi-evidencia a nivel arquitectónico. LPF codifica cada elemento de evidencia en una posterior latente Gaussiana mediante un autoencoder variacional, convierte las posteriores en factores blandos a través de marginalización Monte Carlo, y agrega los factores mediante inferencia exacta en Redes de Suma-Producto (LPF-SPN) o mediante un agregador neuronal entrenado (LPF-Aprendido).
Demostramos siete garantías formales que abarcan los desiderátum clave para una IA confiable: Preservación de la Calibración (ECE <= épsilon + C/sqrt(K_eff)); Error Monte Carlo que decae como O(1/sqrt(M)); un límite PAC-Bayes no vacuo con una brecha entrenamiento-prueba de 0.0085 en N=4200; operación dentro de 1.12x del límite inferior teórico de la información; degradación gradual como O(épsilon*delta*sqrt(K)) bajo corrupción, manteniendo un 88% de rendimiento con la mitad de la evidencia reemplazada de manera adversarial; decaimiento de la calibración de O(1/sqrt(K)) con R²=0.849; y una descomposición exacta de la incertidumbre epistémica-aleatoria con un error inferior al 0.002%. Todos los teoremas se validan empíricamente en conjuntos de datos controlados que abarcan hasta 4,200 ejemplos de entrenamiento. Nuestro marco teórico establece a LPF como una base para una IA multi-evidencia confiable en aplicaciones críticas para la seguridad.
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned).
We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.