ChatPaper.aiChatPaper

Ich weiß, was ich nicht weiß: Latente Posteriore Faktorenmodelle für probabilistisches Schließen mit multiplen Evidenzen

I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning

March 13, 2026
Autoren: Aliyu Agboola Alege
cs.AI

Zusammenfassung

Echtwelt-Entscheidungsfindung, von der Steuercompliance-Bewertung bis zur medizinischen Diagnose, erfordert die Aggregation mehrerer verrauschter und potenziell widersprüchlicher Evidenzquellen. Bestehende Ansätze entbehren entweder einer expliziten Unsicherheitsquantifizierung (neuronale Aggregationsmethoden) oder stützen sich auf manuell konstruierte diskrete Prädikate (probabilistische Logikframeworks), was die Skalierbarkeit auf unstrukturierte Daten limitiert. Wir stellen Latent Posterior Factors (LPF) vor, ein Framework, das latente Posteriori-Verteilungen von Variational Autoencodern (VAEs) in weiche Likelihood-Faktoren für Sum-Product-Network (SPN)-Inferenz transformiert. Dies ermöglicht handhabbare probabilistische Reasoning über unstrukturierte Evidenz bei gleichzeitiger Bewahrung kalibrierter Unsicherheitsschätzung. Wir instanziieren LPF als LPF-SPN (strukturierte, faktorisierte Inferenz) und LPF-Learned (end-to-end gelernte Aggregation), was einen prinzipienbasierten Vergleich zwischen explizitem probabilistischem Reasoning und gelernten Aggregationsmethoden unter einer gemeinsamen Unsicherheitsrepräsentation erlaubt. Über acht Domänen hinweg (sieben synthetische und der FEVER-Benchmark) erreicht LPF-SPN hohe Genauigkeit (bis zu 97,8 %), geringe Kalibrierungsfehler (ECE 1,4 %) und eine starke probabilistische Anpassung, wobei es evidential deep learning, LLMs und graph-basierte Baseline-Modelle über 15 Zufallssamen hinweg substanziell übertrifft. Beiträge: (1) Ein Framework, das latente Unsicherheitsrepräsentationen mit strukturiertem probabilistischem Reasoning verbindet. (2) Duale Architekturen, die einen kontrollierten Vergleich von Reasoning-Paradigmen ermöglichen. (3) Reproduzierbare Trainingsmethodik mit Seed-Selektion. (4) Evaluation gegen EDL-, BERT-, R-GCN- und Large-Language-Model-Baselines. (5) Domänenübergreifende Validierung. (6) Formale Garantien in einem Begleitpapier.
English
Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data. We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation. Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds. Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.
PDF12March 19, 2026