ChatPaper.aiChatPaper

GroUSE: un benchmark per valutare gli valutatori nella risposta a domande basate su contesto.

GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering

September 10, 2024
Autori: Sacha Muller, António Loison, Bilel Omrani, Gautier Viaud
cs.AI

Abstract

La Generazione potenziata da Recupero (RAG) è emersa come un paradigma comune per utilizzare Grandi Modelli Linguistici (LLM) insieme a basi di conoscenza private e aggiornate. In questo lavoro, affrontiamo le sfide dell'utilizzo di LLM-come-Giudice nella valutazione di risposte fondate generate dai sistemi RAG. Per valutare le capacità di calibrazione e discriminazione dei modelli giudice, identifichiamo 7 modalità di fallimento del generatore e introduciamo GroUSE (Valutazione Unitaria Fondata delle Evaluatori), un benchmark di meta-valutazione di 144 test unitari. Questo benchmark rivela che i framework di valutazione RAG automatici esistenti spesso trascurano importanti modalità di fallimento, anche quando si utilizza GPT-4 come giudice. Per migliorare il design attuale dei framework di valutazione RAG automatici, proponiamo un nuovo pipeline e scopriamo che mentre i modelli chiusi si comportano bene su GroUSE, i giudici open-source all'avanguardia non generalizzano ai nostri criteri proposti, nonostante una forte correlazione con il giudizio di GPT-4. I nostri risultati suggeriscono che la correlazione con GPT-4 è un proxy incompleto per le prestazioni pratiche dei modelli giudice e dovrebbe essere integrata con valutazioni su test unitari per una precisa individuazione delle modalità di fallimento. Inoltre dimostriamo che il raffinamento di Llama-3 sulle tracce di ragionamento di GPT-4 potenzia significativamente le sue capacità di valutazione, migliorando sia la correlazione con le valutazioni di GPT-4 che la calibrazione su situazioni di riferimento.
English
Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use Large Language Models (LLMs) alongside private and up-to-date knowledge bases. In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems. To assess the calibration and discrimination capabilities of judge models, we identify 7 generator failure modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a meta-evaluation benchmark of 144 unit tests. This benchmark reveals that existing automated RAG evaluation frameworks often overlook important failure modes, even when using GPT-4 as a judge. To improve on the current design of automated RAG evaluation frameworks, we propose a novel pipeline and find that while closed models perform well on GroUSE, state-of-the-art open-source judges do not generalize to our proposed criteria, despite strong correlation with GPT-4's judgement. Our findings suggest that correlation with GPT-4 is an incomplete proxy for the practical performance of judge models and should be supplemented with evaluations on unit tests for precise failure mode detection. We further show that finetuning Llama-3 on GPT-4's reasoning traces significantly boosts its evaluation capabilities, improving upon both correlation with GPT-4's evaluations and calibration on reference situations.

Summary

AI-Generated Summary

PDF382November 16, 2024