Het meten en verbeteren van de betrouwbaarheid van LLM's in RAG door middel van gefundeerde toekenningen en leren om te weigeren.
Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse
September 17, 2024
Auteurs: Maojia Song, Shang Hong Sim, Rishabh Bhardwaj, Hai Leong Chieu, Navonil Majumder, Soujanya Poria
cs.AI
Samenvatting
LLM's zijn een integraal onderdeel van retrieval-augmented generation (RAG) systemen. Terwijl veel studies zich richten op het evalueren van de kwaliteit van end-to-end RAG systemen, is er een gebrek aan onderzoek naar het begrijpen van de geschiktheid van een LLM voor de RAG taak. Daarom introduceren we een nieuwe metriek, Trust-Score, die een holistische evaluatie biedt van de betrouwbaarheid van LLM's in een RAG framework. We laten zien dat verschillende prompting methoden, zoals in-context learning, er niet in slagen om LLM's effectief aan te passen aan de RAG taak. Daarom stellen we Trust-Align voor, een framework om LLM's uit te lijnen voor een hogere Trust-Score. LLaMA-3-8b, uitgelijnd met onze methode, presteert aanzienlijk beter dan open-source LLM's van vergelijkbare groottes op ASQA (tot 10,7), QAMPARI (tot 29,2) en ELI5 (tot 14,9). We publiceren onze code op: https://github.com/declare-lab/trust-align.
English
LLMs are an integral part of retrieval-augmented generation (RAG) systems.
While many studies focus on evaluating the quality of end-to-end RAG systems,
there is a lack of research on understanding the appropriateness of an LLM for
the RAG task. Thus, we introduce a new metric, Trust-Score, that provides a
holistic evaluation of the trustworthiness of LLMs in an RAG framework. We show
that various prompting methods, such as in-context learning, fail to adapt LLMs
effectively to the RAG task. Thus, we propose Trust-Align, a framework to align
LLMs for higher Trust-Score. LLaMA-3-8b, aligned with our method, significantly
outperforms open-source LLMs of comparable sizes on ASQA (up 10.7), QAMPARI (up
29.2) and ELI5 (up 14.9). We release our code at:
https://github.com/declare-lab/trust-align.Summary
AI-Generated Summary