ChatPaper.aiChatPaper

Fusion-Eval: 대형 언어 모델과 평가자 통합

Fusion-Eval: Integrating Evaluators with LLMs

November 15, 2023
저자: Lei Shu, Nevan Wichers, Liangchen Luo, Yun Zhu, Yinxiao Liu, Jindong Chen, Lei Meng
cs.AI

초록

대규모 언어 모델(LLM)을 평가하는 것은 자연어 이해의 복잡성과 높은 수준의 추론에 대한 기대를 고려할 때 복잡한 작업입니다. 전통적인 평가 방식은 일반적으로 인간 기반, 모델 기반 또는 자동 지표 기반 패러다임에 의존하며, 각각 고유한 장단점을 가지고 있습니다. 우리는 "Fusion-Eval"이라는 시스템을 소개합니다. 이 시스템은 LLM을 직접 평가에만 사용하는 것이 아니라 다양한 평가자의 통찰력을 능숙하게 통합하는 데 활용합니다. 이를 통해 Fusion-Eval은 유연성을 갖추고 다양한 작업에 효과적으로 적용할 수 있으며, 여러 참조를 최적으로 활용할 수 있습니다. SummEval 데이터셋에서의 테스트에서 Fusion-Eval은 0.96의 스피어만 상관관계를 달성하여 다른 평가자들을 능가했습니다. Fusion-Eval의 성공은 LLM이 인간의 관점과 밀접하게 일치하는 평가를 생성할 수 있는 잠재력을 강조하며, LLM 평가 분야에서 새로운 기준을 제시합니다.
English
Evaluating Large Language Models (LLMs) is a complex task, especially considering the intricacies of natural language understanding and the expectations for high-level reasoning. Traditional evaluations typically lean on human-based, model-based, or automatic-metrics-based paradigms, each with its own advantages and shortcomings. We introduce "Fusion-Eval", a system that employs LLMs not solely for direct evaluations, but to skillfully integrate insights from diverse evaluators. This gives Fusion-Eval flexibility, enabling it to work effectively across diverse tasks and make optimal use of multiple references. In testing on the SummEval dataset, Fusion-Eval achieved a Spearman correlation of 0.96, outperforming other evaluators. The success of Fusion-Eval underscores the potential of LLMs to produce evaluations that closely align human perspectives, setting a new standard in the field of LLM evaluation.
PDF62December 15, 2024