RAG에서 LLM의 신뢰성 측정과 향상을 위한 Grounded 속성 및 거부 학습을 통한 방법.
Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse
September 17, 2024
저자: Maojia Song, Shang Hong Sim, Rishabh Bhardwaj, Hai Leong Chieu, Navonil Majumder, Soujanya Poria
cs.AI
초록
LLM은 검색 증강 생성 (RAG) 시스템의 중요한 구성 요소입니다. 많은 연구가 최종 RAG 시스템의 품질을 평가하는 데 초점을 맞추고 있지만, LLM이 RAG 작업에 적합한지 이해하는 연구가 부족합니다. 따라서 우리는 RAG 프레임워크에서 LLM의 신뢰성을 종합적으로 평가하는 Trust-Score라는 새로운 측정 항목을 소개합니다. 우리는 문맥 내 학습과 같은 다양한 프롬프팅 방법이 LLM을 효과적으로 RAG 작업에 적응시키지 못하는 것을 보여줍니다. 따라서 우리는 더 높은 Trust-Score를 위해 LLM을 조정하는 Trust-Align이라는 프레임워크를 제안합니다. 우리의 방법으로 조정된 LLaMA-3-8b는 ASQA (10.7 상승), QAMPARI (29.2 상승) 및 ELI5 (14.9 상승)에서 유사한 크기의 오픈 소스 LLM을 크게 능가합니다. 우리의 코드는 다음에서 확인할 수 있습니다: https://github.com/declare-lab/trust-align.
English
LLMs are an integral part of retrieval-augmented generation (RAG) systems.
While many studies focus on evaluating the quality of end-to-end RAG systems,
there is a lack of research on understanding the appropriateness of an LLM for
the RAG task. Thus, we introduce a new metric, Trust-Score, that provides a
holistic evaluation of the trustworthiness of LLMs in an RAG framework. We show
that various prompting methods, such as in-context learning, fail to adapt LLMs
effectively to the RAG task. Thus, we propose Trust-Align, a framework to align
LLMs for higher Trust-Score. LLaMA-3-8b, aligned with our method, significantly
outperforms open-source LLMs of comparable sizes on ASQA (up 10.7), QAMPARI (up
29.2) and ELI5 (up 14.9). We release our code at:
https://github.com/declare-lab/trust-align.Summary
AI-Generated Summary