ChatPaper.aiChatPaper

Fundamentos Teóricos dos Fatores Posteriores Latentes: Garantias Formais para o Raciocínio com Múltiplas Evidências

Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning

March 13, 2026
Autores: Aliyu Agboola Alege
cs.AI

Resumo

Apresentamos uma caracterização teórica completa dos Fatores Posteriores Latentes (LPF), uma estrutura fundamentada para agregar múltiplos itens de evidência heterogéneos em tarefas de previsão probabilística. O raciocínio com múltiplas evidências surge de forma ubíqua em domínios de alto risco, incluindo diagnóstico médico, avaliação de risco financeiro, análise de casos jurídicos e conformidade regulatória. No entanto, as abordagens existentes ou carecem de garantias formais ou falham arquitetonicamente em lidar com cenários de múltiplas evidências. O LPF codifica cada item de evidência num posterior latente Gaussiano através de um *variational autoencoder*, converte os posteriores em fatores suaves por meio de marginalização de Monte Carlo, e agrega os fatores através de inferência exata em Rede Soma-Produto (LPF-SPN) ou por meio de um agregador neural aprendido (LPF-Learned). Demonstramos sete garantias formais que abrangem os desideratos fundamentais para IA confiável: Preservação de Calibração (ECE <= epsilon + C/sqrt(K_eff)); Erro de Monte Carlo decaindo como O(1/sqrt(M)); um limite de PAC-Bayes não vacuo com um gap treino-teste de 0,0085 em N=4200; operação dentro de 1,12x do limite inferior teórico da informação; degradação graciosa como O(epsilon*delta*sqrt(K)) sob corrupção, mantendo 88% do desempenho com metade da evidência substituída adversariamente; decaimento de calibração de O(1/sqrt(K)) com R²=0,849; e uma decomposição exata de incerteza epistêmica-aleatória com erro abaixo de 0,002%. Todos os teoremas são validados empiricamente em conjuntos de dados controlados abrangendo até 4.200 exemplos de treino. O nosso quadro teórico estabelece o LPF como uma base para IA confiável com múltiplas evidências em aplicações de segurança crítica.
English
We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned). We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.
PDF12March 19, 2026