GroUSE: 地に根ざした質問応答における評価者を評価するためのベンチマーク
GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering
September 10, 2024
著者: Sacha Muller, António Loison, Bilel Omrani, Gautier Viaud
cs.AI
要旨
Retrieval-Augmented Generation(RAG)は、最近一般的なパラダイムとして浮上し、大規模言語モデル(LLM)をプライベートかつ最新の知識ベースと共に使用することを指します。本研究では、RAGシステムによって生成された根拠付き回答を評価する際にLLMを判定者として使用する際の課題に取り組みます。判定モデルのキャリブレーションおよび識別能力を評価するために、7つの生成器の故障モードを特定し、144の単体テストからなるメタ評価ベンチマークであるGroUSE(Grounded QA Unitary Scoring of Evaluators)を導入します。このベンチマークにより、既存の自動RAG評価フレームワークがしばしば重要な故障モードを見落としていることが明らかになります。これは、GPT-4を判定者として使用している場合でも同様です。
現在の自動RAG評価フレームワークの設計を改善するために、新しいパイプラインを提案し、クローズドモデルがGroUSEでうまく機能する一方で、最先端のオープンソース判定者が提案された基準に一般化しないことを発見しました。これは、GPT-4の判断と強い相関関係があるにもかかわらずです。我々の調査結果は、GPT-4との相関が判定モデルの実用的なパフォーマンスの不完全な代理指標であり、正確な故障モードの検出のために単体テストでの評価を補完すべきであることを示唆しています。
さらに、Llama-3をGPT-4の推論トレースでファインチューニングすることで、その評価能力が大幅に向上し、GPT-4の評価との相関性、およびリファレンス状況でのキャリブレーションの両方が改善されることを示します。
English
Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use
Large Language Models (LLMs) alongside private and up-to-date knowledge bases.
In this work, we address the challenges of using LLM-as-a-Judge when evaluating
grounded answers generated by RAG systems. To assess the calibration and
discrimination capabilities of judge models, we identify 7 generator failure
modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a
meta-evaluation benchmark of 144 unit tests. This benchmark reveals that
existing automated RAG evaluation frameworks often overlook important failure
modes, even when using GPT-4 as a judge.
To improve on the current design of automated RAG evaluation frameworks, we
propose a novel pipeline and find that while closed models perform well on
GroUSE, state-of-the-art open-source judges do not generalize to our proposed
criteria, despite strong correlation with GPT-4's judgement. Our findings
suggest that correlation with GPT-4 is an incomplete proxy for the practical
performance of judge models and should be supplemented with evaluations on unit
tests for precise failure mode detection.
We further show that finetuning Llama-3 on GPT-4's reasoning traces
significantly boosts its evaluation capabilities, improving upon both
correlation with GPT-4's evaluations and calibration on reference situations.Summary
AI-Generated Summary