ChatPaper.aiChatPaper

아는 것과 모르는 것: 다중 증거 확률적 추론을 위한 잠재 사후 요인 모델

I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning

March 13, 2026
저자: Aliyu Agboola Alege
cs.AI

초록

실세계 의사 결정, 즉 세금 신고 적합성 평가부터 의학적 진단에 이르기까지는 여러 개의 잡음이 포함되고 잠재적으로 상충되는 증거 원천들을 종합해야 합니다. 기존 접근법들은 명시적 불확실성 정량화가 부족하거나(신경망 기반 종합 방법) 수동으로 설계된 이산 술어에 의존함으로써(확률론적 논리 프레임워크) 비정형 데이터로의 확장성을 제한합니다. 본 연구에서는 Variational Autoencoder(VAE)의 잠재 사후 분포를 Sum-Product Network(SPN) 추론을 위한 소프트 우도 인자로 변환하는 Latent Posterior Factors(LPF) 프레임워크를 소개합니다. 이를 통해 보정된 불확실성 추정치를 보존하면서 비정형 증거에 대한 다루기 쉬운(tractable) 확률론적 추론을 가능하게 합니다. 우리는 LPF를 LPF-SPN(구조적 인자 기반 추론)과 LPF-Learned(종단간 학습된 종합)로 구체화하여, 공유된 불확실성 표현 하에서 명시적 확률론적 추론과 학습된 종합 방식을 체계적으로 비교할 수 있도록 합니다. 8개 영역(7개 합성 데이터 및 FEVER 벤치마크)에 걸친 실험에서 LPF-SPN은 높은 정확도(최대 97.8%), 낮은 보정 오차(ECE 1.4%), 그리고 강력한 확률론적 적합도를 달성하였으며, 15개의 무작위 시드에 대해 Evidence Deep Learning, 대형 언어 모델 및 그래프 기반 베이스라인을 크게 능가하는 성능을 보였습니다. 주요 기여점: (1) 잠재 불확실성 표현과 구조적 확률론적 추론을 연결하는 프레임워크. (2) 추론 패러다임의 통제된 비교를 가능하게 하는 이중 아키텍처. (3) 시드 선택을 포함한 재현 가능한 학습 방법론. (4) EDL, BERT, R-GCN 및 대형 언어 모델 베이스라인 대비 평가. (5) 교차 영역 검증. (6) 동반 논문의 형식적 보장.
English
Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data. We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation. Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds. Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.
PDF12March 19, 2026