Prometheus 2: Un modelo de lenguaje de código abierto especializado en la evaluación de otros modelos de lenguaje.
Prometheus 2: An Open Source Language Model Specialized in Evaluating Other Language Models
May 2, 2024
Autores: Seungone Kim, Juyoung Suk, Shayne Longpre, Bill Yuchen Lin, Jamin Shin, Sean Welleck, Graham Neubig, Moontae Lee, Kyungjae Lee, Minjoon Seo
cs.AI
Resumen
Los modelos de lenguaje propietarios (LM) como GPT-4 se utilizan frecuentemente para evaluar la calidad de las respuestas de diversos LM. Sin embargo, preocupaciones relacionadas con la transparencia, la controlabilidad y la asequibilidad motivan fuertemente el desarrollo de LM de código abierto especializados en evaluaciones. Por otro lado, los evaluadores LM abiertos existentes presentan deficiencias críticas: 1) emiten puntuaciones que divergen significativamente de las asignadas por humanos, y 2) carecen de la flexibilidad para realizar tanto evaluaciones directas como clasificaciones por pares, las dos formas de evaluación más prevalentes. Además, no poseen la capacidad de evaluar basándose en criterios personalizados, centrándose en cambio en atributos generales como la utilidad y la inocuidad. Para abordar estos problemas, presentamos Prometheus 2, un evaluador LM más potente que su predecesor y que refleja de cerca los juicios de humanos y GPT-4. Además, es capaz de procesar tanto formatos de evaluación directa como de clasificación por pares agrupados con un criterio de evaluación definido por el usuario. En cuatro benchmarks de evaluación directa y cuatro de clasificación por pares, Prometheus 2 obtiene la mayor correlación y concordancia con humanos y jueces LM propietarios entre todos los evaluadores LM abiertos probados. Nuestros modelos, código y datos están disponibles públicamente en https://github.com/prometheus-eval/prometheus-eval.
English
Proprietary LMs such as GPT-4 are often employed to assess the quality of
responses from various LMs. However, concerns including transparency,
controllability, and affordability strongly motivate the development of
open-source LMs specialized in evaluations. On the other hand, existing open
evaluator LMs exhibit critical shortcomings: 1) they issue scores that
significantly diverge from those assigned by humans, and 2) they lack the
flexibility to perform both direct assessment and pairwise ranking, the two
most prevalent forms of assessment. Additionally, they do not possess the
ability to evaluate based on custom evaluation criteria, focusing instead on
general attributes like helpfulness and harmlessness. To address these issues,
we introduce Prometheus 2, a more powerful evaluator LM than its predecessor
that closely mirrors human and GPT-4 judgements. Moreover, it is capable of
processing both direct assessment and pair-wise ranking formats grouped with a
user-defined evaluation criteria. On four direct assessment benchmarks and four
pairwise ranking benchmarks, Prometheus 2 scores the highest correlation and
agreement with humans and proprietary LM judges among all tested open evaluator
LMs. Our models, code, and data are all publicly available at
https://github.com/prometheus-eval/prometheus-eval.Summary
AI-Generated Summary