ChatPaper.aiChatPaper

GroUSE: Набор данных для оценки оценщиков в задаче ответа на вопросы на основе контекста.

GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering

September 10, 2024
Авторы: Sacha Muller, António Loison, Bilel Omrani, Gautier Viaud
cs.AI

Аннотация

Расширенная генерация с использованием поиска (RAG) стала общим подходом для использования больших языковых моделей (LLM) наряду с закрытыми и актуальными базами знаний. В данной работе мы рассматриваем проблемы использования LLM-как-Судьи при оценке обоснованных ответов, генерируемых системами RAG. Для оценки калибровки и дискриминационных возможностей моделей-судей мы выделяем 7 режимов сбоя генератора и представляем GroUSE (Grounded QA Unitary Scoring of Evaluators) - мета-оценочную базу из 144 модульных тестов. Эта база показывает, что существующие автоматизированные фреймворки оценки RAG часто не учитывают важные режимы сбоя, даже при использовании GPT-4 в качестве судьи. Для улучшения текущего дизайна автоматизированных фреймворков оценки RAG мы предлагаем новый конвейер и обнаруживаем, что хотя закрытые модели хорошо справляются с GroUSE, современные открытые судьи с открытым исходным кодом не обобщаются на наши критерии, несмотря на сильную корреляцию с оценками GPT-4. Наши результаты показывают, что корреляция с GPT-4 является неполным показателем практической производительности моделей-судей и должна дополняться оценками на модульных тестах для точного обнаружения режимов сбоя. Мы также показываем, что донастройка Llama-3 на следах рассуждений GPT-4 значительно улучшает его возможности оценки, улучшая как корреляцию с оценками GPT-4, так и калибровку на эталонных ситуациях.
English
Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use Large Language Models (LLMs) alongside private and up-to-date knowledge bases. In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems. To assess the calibration and discrimination capabilities of judge models, we identify 7 generator failure modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a meta-evaluation benchmark of 144 unit tests. This benchmark reveals that existing automated RAG evaluation frameworks often overlook important failure modes, even when using GPT-4 as a judge. To improve on the current design of automated RAG evaluation frameworks, we propose a novel pipeline and find that while closed models perform well on GroUSE, state-of-the-art open-source judges do not generalize to our proposed criteria, despite strong correlation with GPT-4's judgement. Our findings suggest that correlation with GPT-4 is an incomplete proxy for the practical performance of judge models and should be supplemented with evaluations on unit tests for precise failure mode detection. We further show that finetuning Llama-3 on GPT-4's reasoning traces significantly boosts its evaluation capabilities, improving upon both correlation with GPT-4's evaluations and calibration on reference situations.

Summary

AI-Generated Summary

PDF382November 16, 2024