ChatPaper.aiChatPaper

MetaFaith: 대규모 언어 모델에서의 자연스러운 불확실성 표현의 신뢰성

MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs

May 30, 2025
저자: Gabrielle Kaili-May Liu, Gal Yona, Avi Caciularu, Idan Szpektor, Tim G. J. Rudner, Arman Cohan
cs.AI

초록

LLM(대형 언어 모델)의 신뢰성에 있어 중요한 요소 중 하나는 신뢰할 수 있는 불확실성 전달입니다. 그러나 LLM은 종종 잘못된 주장을 전달할 때 단언적인 언어를 사용하여, 과도한 의존과 신뢰 저하를 초래합니다. 본 연구는 LLM의 신뢰성 있는 신뢰도 보정에 대한 첫 번째 체계적인 연구를 제시하며, 다양한 모델, 데이터셋, 프롬프트 전략을 아우르는 포괄적인 범위에서 모델의 내재적 불확실성을 충실히 반영하는 언어적 불확실성 표현 능력을 벤치마킹합니다. 연구 결과는 LLM이 이 과제에서 대체로 실패하며, 기존의 개입 방법들이 불충분함을 보여줍니다: 표준 프롬프트 접근법은 미미한 개선만을 제공하며, 기존의 사실성 기반 보정 기술은 오히려 충실한 보정을 해칠 수 있습니다. 이러한 중요한 격차를 해결하기 위해, 우리는 인간의 메타인지에서 영감을 받은 새로운 프롬프트 기반 보정 접근법인 MetaFaith를 소개합니다. MetaFaith는 다양한 모델과 작업 영역에서 충실한 보정을 견고하게 개선하며, 인간 평가 기준으로 최대 61%의 충실도 향상과 83%의 승률을 달성합니다.
English
A critical component in the trustworthiness of LLMs is reliable uncertainty communication, yet LLMs often use assertive language when conveying false claims, leading to over-reliance and eroded trust. We present the first systematic study of faithful confidence calibration of LLMs, benchmarking models' ability to use linguistic expressions of uncertainty that faithfully reflect their intrinsic uncertainty, across a comprehensive array of models, datasets, and prompting strategies. Our results demonstrate that LLMs largely fail at this task, and that existing interventions are insufficient: standard prompt approaches provide only marginal gains, and existing, factuality-based calibration techniques can even harm faithful calibration. To address this critical gap, we introduce MetaFaith, a novel prompt-based calibration approach inspired by human metacognition. We show that MetaFaith robustly improves faithful calibration across diverse models and task domains, enabling up to 61% improvement in faithfulness and achieving an 83% win rate over original generations as judged by humans.
PDF162June 2, 2025