ChatPaper.aiChatPaper

Kalibreren van op LLM gebaseerde evaluator

Calibrating LLM-Based Evaluator

September 23, 2023
Auteurs: Yuxuan Liu, Tianchi Yang, Shaohan Huang, Zihan Zhang, Haizhen Huang, Furu Wei, Weiwei Deng, Feng Sun, Qi Zhang
cs.AI

Samenvatting

Recente vooruitgang in grote taalmodellen (LLMs) op het gebied van taalmodellering en opkomende capaciteiten maken hen een veelbelovende referentievrije beoordelaar van de kwaliteit van natuurlijke taalgeneratie, en een competent alternatief voor menselijke evaluatie. Echter, belemmerd door de gesloten broncode of de hoge rekenkundige eisen om te hosten en af te stemmen, is er een gebrek aan praktijk om een kant-en-klare LLM-gebaseerde beoordelaar verder te kalibreren voor betere afstemming op menselijke voorkeuren. In dit werk stellen we AutoCalibrate voor, een meerfasige, gradiëntvrije aanpak om een LLM-gebaseerde beoordelaar automatisch te kalibreren en af te stemmen op menselijke voorkeuren. In plaats van expliciet menselijke voorkeuren te modelleren, omvatten we deze eerst impliciet binnen een set menselijke labels. Vervolgens wordt een initiële set beoordelingscriteria opgesteld door het taalmodel zelf, waarbij gebruik wordt gemaakt van in-context leren op verschillende few-shot voorbeelden. Om deze set criteria verder te kalibreren, selecteren we de beste presteerders en herformuleren we deze met zelfverfijning. Onze experimenten op meerdere datasets voor tekstkwaliteitsevaluatie tonen een significante verbetering in correlatie met expertbeoordeling door kalibratie. Onze uitgebreide kwalitatieve analyse geeft inzichtelijke intuïties en observaties over de essentie van effectieve beoordelingscriteria.
English
Recent advancements in large language models (LLMs) on language modeling and emergent capabilities make them a promising reference-free evaluator of natural language generation quality, and a competent alternative to human evaluation. However, hindered by the closed-source or high computational demand to host and tune, there is a lack of practice to further calibrate an off-the-shelf LLM-based evaluator towards better human alignment. In this work, we propose AutoCalibrate, a multi-stage, gradient-free approach to automatically calibrate and align an LLM-based evaluator toward human preference. Instead of explicitly modeling human preferences, we first implicitly encompass them within a set of human labels. Then, an initial set of scoring criteria is drafted by the language model itself, leveraging in-context learning on different few-shot examples. To further calibrate this set of criteria, we select the best performers and re-draft them with self-refinement. Our experiments on multiple text quality evaluation datasets illustrate a significant improvement in correlation with expert evaluation through calibration. Our comprehensive qualitative analysis conveys insightful intuitions and observations on the essence of effective scoring criteria.
PDF121February 8, 2026