ChatPaper.aiChatPaper

Ragionamento Comparativo di Gruppo: Sbloccare Valutazioni Complete per LLM-come-Giudice

Crowd Comparative Reasoning: Unlocking Comprehensive Evaluations for LLM-as-a-Judge

February 18, 2025
Autori: Qiyuan Zhang, Yufei Wang, Yuxin Jiang, Liangyou Li, Chuhan Wu, Yasheng Wang, Xin Jiang, Lifeng Shang, Ruiming Tang, Fuyuan Lyu, Chen Ma
cs.AI

Abstract

LLM-as-a-Judge, che genera giudizi basati su catene di ragionamento (CoT), è diventato un metodo di valutazione automatica ampiamente adottato. Tuttavia, la sua affidabilità è compromessa dall'incapacità del ragionamento CoT di catturare dettagli completi e approfonditi, portando spesso a risultati incompleti. I metodi esistenti si basano principalmente sul voto a maggioranza o sull'espansione dei criteri, che sono insufficienti per affrontare le limitazioni del CoT. Proponiamo la Valutazione Comparativa Basata sulla Folla, che introduce risposte aggiuntive della folla da confrontare con le risposte candidate, esponendo così dettagli più profondi e completi all'interno delle risposte candidate. Questo processo guida efficacemente LLM-as-a-Judge a fornire un giudizio CoT più dettagliato. Esperimenti estesi dimostrano che il nostro approccio migliora l'affidabilità della valutazione, ottenendo un guadagno medio di accuratezza del 6,7% su cinque benchmark. Inoltre, il nostro metodo produce CoT di qualità superiore che facilitano la distillazione dei giudici e mostrano prestazioni superiori nel campionamento di rifiuto per il fine-tuning supervisionato (SFT), denominato campionamento di rifiuto della folla, consentendo così un SFT più efficiente. La nostra analisi conferma che i CoT generati dal nostro metodo sono più completi e di qualità superiore, e l'accuratezza della valutazione migliora con l'aumentare delle scale di inferenza.
English
LLM-as-a-Judge, which generates chain-of-thought (CoT) judgments, has become a widely adopted auto-evaluation method. However, its reliability is compromised by the CoT reasoning's inability to capture comprehensive and deeper details, often leading to incomplete outcomes. Existing methods mainly rely on majority voting or criteria expansion, which is insufficient to address the limitation in CoT. We propose Crowd-based Comparative Evaluation, which introduces additional crowd responses to compare with the candidate responses, thereby exposing deeper and more comprehensive details within the candidate responses. This process effectively guides LLM-as-a-Judge to provide a more detailed CoT judgment. Extensive experiments demonstrate that our approach enhances evaluation reliability, achieving an average accuracy gain of 6.7% across five benchmarks. Moreover, our method produces higher-quality CoTs that facilitate judge distillation and exhibit superior performance in rejection sampling for supervised fine-tuning (SFT), referred to as crowd rejection sampling, thereby enabling more efficient SFT. Our analysis confirms that CoTs generated by ours are more comprehensive and of higher quality, and evaluation accuracy improves as inference scales.

Summary

AI-Generated Summary

PDF62February 19, 2025