Ik Weet Wat Ik Niet Weet: Latente Posterieure Factor Modellen voor Probabilistisch Redeneren met Meerdere Bewijsstukken
I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning
March 13, 2026
Auteurs: Aliyu Agboola Alege
cs.AI
Samenvatting
In de echte wereld, van het beoordelen van belastingaangiften tot medische diagnoses, vereist besluitvorming het samenvoegen van meerdere onbetrouwbare en potentieel tegenstrijdige informatiebronnen. Bestaande methoden missen ofwel een expliciete kwantificering van onzekerheid (neurale aggregatiemethoden) of zijn afhankelijk van handmatig ontworpen discrete predicaten (probabilistische logica-frameworks), wat de schaalbaarheid naar ongestructureerde data beperkt.
Wij introduceren Latent Posterior Factors (LPF), een raamwerk dat latente posteriorverdelingen van Variational Autoencoders (VAE) omzet in zachte likelihood-factoren voor inferentie in Sum-Product Networks (SPN). Dit maakt hanteerbare probabilistische redenering over ongestructureerde informatie mogelijk, terwijl gekalibreerde onzekerheidsschattingen behouden blijven. We concretiseren LPF als LPF-SPN (inferentie op basis van gestructureerde factoren) en LPF-Learned (end-to-end geleerde aggregatie), wat een principiële vergelijking mogelijk maakt tussen expliciete probabilistische redenering en geleerde aggregatie onder een gedeelde onzekerheidsrepresentatie.
In acht domeinen (zeven synthetische en de FEVER-benchmark) behaalt LPF-SPN een hoge nauwkeurigheid (tot 97,8%), een lage kalibratiefout (ECE 1,4%) en een sterke probabilistische fit, en presteert daarbij aanzienlijk beter dan evidentieel deep learning, LLM's en op grafieken gebaseerde baseline-methoden over 15 willekeurige seeds.
Bijdragen: (1) Een raamwerk dat latente onzekerheidsrepresentaties verbindt met gestructureerde probabilistische redenering. (2) Duale architecturen die een gecontroleerde vergelijking van redeneerparadigma's mogelijk maken. (3) Reproduceerbare trainingsmethodologie met seed-selectie. (4) Evaluatie tegen EDL, BERT, R-GCN en large language model-baselines. (5) Validatie over meerdere domeinen. (6) Formele garanties in een begeleidend artikel.
English
Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data.
We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation.
Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds.
Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.