ChatPaper.aiChatPaper

GroUSE: Een benchmark om beoordelaars te evalueren in grounded question answering.

GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering

September 10, 2024
Auteurs: Sacha Muller, António Loison, Bilel Omrani, Gautier Viaud
cs.AI

Samenvatting

Retrieval-Augmented Generation (RAG) is opgekomen als een gangbaar paradigma om Grote Taalmodellen (LLM's) te gebruiken naast privé- en actuele kennisbanken. In dit werk behandelen we de uitdagingen van het gebruik van LLM-als-een-Beoordelaar bij het evalueren van gefundeerde antwoorden gegenereerd door RAG-systemen. Om de kalibratie- en discriminatiecapaciteiten van beoordelingsmodellen te beoordelen, identificeren we 7 generatorfoutmodi en introduceren we GroUSE (Grounded QA Unitary Scoring of Evaluators), een meta-evaluatiebenchmark van 144 eenheidstests. Deze benchmark onthult dat bestaande geautomatiseerde RAG-evaluatiekaders vaak belangrijke foutmodi over het hoofd zien, zelfs bij het gebruik van GPT-4 als beoordelaar. Om de huidige vormgeving van geautomatiseerde RAG-evaluatiekaders te verbeteren, stellen we een nieuw proces voor en constateren we dat hoewel gesloten modellen goed presteren op GroUSE, state-of-the-art open-source beoordelaars niet generaliseren naar onze voorgestelde criteria, ondanks sterke correlatie met het oordeel van GPT-4. Onze bevindingen suggereren dat correlatie met GPT-4 een onvolledige proxy is voor de praktische prestaties van beoordelingsmodellen en aangevuld moet worden met evaluaties op eenheidstests voor nauwkeurige detectie van foutmodi. Verder tonen we aan dat het fine-tunen van Llama-3 op de redeneringssporen van GPT-4 aanzienlijk bijdraagt aan de evaluatiecapaciteiten, waarbij zowel de correlatie met de evaluaties van GPT-4 als de kalibratie op referentiesituaties worden verbeterd.
English
Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use Large Language Models (LLMs) alongside private and up-to-date knowledge bases. In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems. To assess the calibration and discrimination capabilities of judge models, we identify 7 generator failure modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a meta-evaluation benchmark of 144 unit tests. This benchmark reveals that existing automated RAG evaluation frameworks often overlook important failure modes, even when using GPT-4 as a judge. To improve on the current design of automated RAG evaluation frameworks, we propose a novel pipeline and find that while closed models perform well on GroUSE, state-of-the-art open-source judges do not generalize to our proposed criteria, despite strong correlation with GPT-4's judgement. Our findings suggest that correlation with GPT-4 is an incomplete proxy for the practical performance of judge models and should be supplemented with evaluations on unit tests for precise failure mode detection. We further show that finetuning Llama-3 on GPT-4's reasoning traces significantly boosts its evaluation capabilities, improving upon both correlation with GPT-4's evaluations and calibration on reference situations.
PDF382November 16, 2024