ChatPaper.aiChatPaper

NAACL: Ruis-Bewuste Verbale Betrouwbaarheidskalibratie voor LLM's in RAG-systemen

NAACL: Noise-AwAre Verbal Confidence Calibration for LLMs in RAG Systems

January 16, 2026
Auteurs: Jiayu Liu, Rui Wang, Qing Zong, Qingcheng Zeng, Tianshi Zheng, Haochen Shi, Dadi Guo, Baixuan Xu, Chunyang Li, Yangqiu Song
cs.AI

Samenvatting

Het nauwkeurig beoordelen van modelvertrouwen is essentieel voor de inzet van grote taalmmodellen (LLM's) in feitelijke domeinen waar geen fouten kunnen worden toegestaan. Hoewel retrieval-augmented generation (RAG) algemeen wordt toegepast om de onderbouwing te verbeteren, blijft confidence calibration in RAG-omgevingen slecht begrepen. Wij voeren een systematische studie uit over vier benchmarks, waaruit blijkt dat LLM's een slechte kalibratieprestatie vertonen als gevolg van ruis in opgehaalde contexten. Specifiek neigt tegenstrijdig of irrelevant bewijsmateriaal ertoe te leiden dat het model een valse zekerheid krijgt, wat resulteert in ernstige overmoedigheid. Om dit aan te pakken, stellen wij NAACL Rules (Noise-AwAre Confidence CaLibration Rules) voor om een principiële basis te bieden voor het oplossen van overmoedigheid bij ruis. Wij ontwerpen verder NAACL, een ruisbewust kalibratieraamwerk dat supervisie synthetiseert uit ongeveer 2.000 HotpotQA-voorbeelden, geleid door deze regels. Door supervised fine-tuning (SFT) uit te voeren met deze data, rust NAACL modellen uit met een intrinsiek ruisbewustzijn zonder afhankelijk te zijn van sterkere leraarmodellen. Empirische resultaten tonen aan dat NAACL aanzienlijke verbeteringen oplevert, met een verbetering van de ECE-scores met 10,9% in-domein en 8,0% out-of-domein. Door de kloof tussen retrievalruis en verbale kalibratie te overbruggen, baant NAACL de weg voor zowel nauwkeurige als epistemisch betrouwbare LLM's.
English
Accurately assessing model confidence is essential for deploying large language models (LLMs) in mission-critical factual domains. While retrieval-augmented generation (RAG) is widely adopted to improve grounding, confidence calibration in RAG settings remains poorly understood. We conduct a systematic study across four benchmarks, revealing that LLMs exhibit poor calibration performance due to noisy retrieved contexts. Specifically, contradictory or irrelevant evidence tends to inflate the model's false certainty, leading to severe overconfidence. To address this, we propose NAACL Rules (Noise-AwAre Confidence CaLibration Rules) to provide a principled foundation for resolving overconfidence under noise. We further design NAACL, a noise-aware calibration framework that synthesizes supervision from about 2K HotpotQA examples guided by these rules. By performing supervised fine-tuning (SFT) with this data, NAACL equips models with intrinsic noise awareness without relying on stronger teacher models. Empirical results show that NAACL yields substantial gains, improving ECE scores by 10.9% in-domain and 8.0% out-of-domain. By bridging the gap between retrieval noise and verbal calibration, NAACL paves the way for both accurate and epistemically reliable LLMs.
PDF302February 7, 2026