ChatPaper.aiChatPaper

Измерение и повышение надежности LLM в RAG с помощью обоснованных атрибуций и обучения отказу.

Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse

September 17, 2024
Авторы: Maojia Song, Shang Hong Sim, Rishabh Bhardwaj, Hai Leong Chieu, Navonil Majumder, Soujanya Poria
cs.AI

Аннотация

LLM являются неотъемлемой частью систем генерации с усилением поиска (RAG). В то время как многие исследования фокусируются на оценке качества систем RAG с конечным до конечного решением, существует недостаток исследований по пониманию соответствия LLM для задачи RAG. Таким образом, мы представляем новую метрику, Trust-Score, которая обеспечивает всестороннюю оценку доверия LLM в рамках RAG. Мы показываем, что различные методы подсказок, такие как обучение в контексте, неэффективно адаптируют LLM для задачи RAG. Поэтому мы предлагаем Trust-Align, фреймворк для выравнивания LLM для достижения более высокого Trust-Score. LLaMA-3-8b, выровненный с нашим методом, значительно превосходит открытые LLM сравнимого размера на наборах данных ASQA (на 10.7), QAMPARI (на 29.2) и ELI5 (на 14.9). Мы выкладываем наш код по ссылке: https://github.com/declare-lab/trust-align.
English
LLMs are an integral part of retrieval-augmented generation (RAG) systems. While many studies focus on evaluating the quality of end-to-end RAG systems, there is a lack of research on understanding the appropriateness of an LLM for the RAG task. Thus, we introduce a new metric, Trust-Score, that provides a holistic evaluation of the trustworthiness of LLMs in an RAG framework. We show that various prompting methods, such as in-context learning, fail to adapt LLMs effectively to the RAG task. Thus, we propose Trust-Align, a framework to align LLMs for higher Trust-Score. LLaMA-3-8b, aligned with our method, significantly outperforms open-source LLMs of comparable sizes on ASQA (up 10.7), QAMPARI (up 29.2) and ELI5 (up 14.9). We release our code at: https://github.com/declare-lab/trust-align.

Summary

AI-Generated Summary

PDF72November 16, 2024