ChatPaper.aiChatPaper

So ciò che non so: modelli fattoriali a posteriori latente per il ragionamento probabilistico multi-evidenza

I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning

March 13, 2026
Autori: Aliyu Agboola Alege
cs.AI

Abstract

La presa di decisioni nel mondo reale, dalla valutazione della conformità fiscale alla diagnosi medica, richiede l'aggregazione di molteplici fonti di evidenza rumorose e potenzialmente contraddittorie. Gli approcci esistenti o mancano di una quantificazione esplicita dell'incertezza (metodi di aggregazione neurale) o si basano su predicati discreti progettati manualmente (framework di logica probabilistica), limitando la scalabilità ai dati non strutturati. Introduciamo Latent Posterior Factors (LPF), un framework che trasforma le posteriori latenti del Variational Autoencoder (VAE) in fattori di verosimiglianza "soft" per l'inferenza nelle Sum-Product Network (SPN), consentendo un ragionamento probabilistico trattabile su evidenze non strutturate preservando stime calibrate dell'incertezza. Istanziamo LPF come LPF-SPN (inferenza strutturata basata su fattori) e LPF-Learned (aggregazione appresa end-to-end), permettendo un confronto rigoroso tra il ragionamento probabilistico esplicito e l'aggregazione appresa sotto una rappresentazione condivisa dell'incertezza. In otto domini (sette sintetici e il benchmark FEVER), LPF-SPN raggiunge un'elevata accuratezza (fino al 97,8%), un basso errore di calibrazione (ECE 1,4%) e un forte adattamento probabilistico, superando sostanzialmente l'apprendimento profondo evidenziale, i LLM e i baseline basati su grafi su 15 semi casuali. Contributi: (1) Un framework che collega le rappresentazioni latenti dell'incertezza con il ragionamento probabilistico strutturato. (2) Architetture duali che abilitano un confronto controllato tra paradigmi di ragionamento. (3) Metodologia di addestramento riproducibile con selezione dei semi. (4) Valutazione rispetto a baseline di EDL, BERT, R-GCN e modelli linguistici di grandi dimensioni. (5) Validazione incrociata su domini. (6) Garanzie formali in un articolo complementare.
English
Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data. We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation. Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds. Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.
PDF22March 31, 2026