ChatPaper.aiChatPaper

PandaLM : Un benchmark d'évaluation automatique pour l'optimisation du réglage des instructions des modèles de langage

PandaLM: An Automatic Evaluation Benchmark for LLM Instruction Tuning Optimization

June 8, 2023
Auteurs: Yidong Wang, Zhuohao Yu, Zhengran Zeng, Linyi Yang, Cunxiang Wang, Hao Chen, Chaoya Jiang, Rui Xie, Jindong Wang, Xing Xie, Wei Ye, Shikun Zhang, Yue Zhang
cs.AI

Résumé

Le réglage par instruction des grands modèles de langage (LLMs) reste une tâche complexe, en raison de la difficulté de sélection des hyperparamètres et des défis liés à l'évaluation des modèles ajustés. Pour déterminer les hyperparamètres optimaux, un benchmark d'évaluation automatique, robuste et fiable est essentiel. Cependant, établir un tel benchmark n'est pas une tâche triviale, en raison des défis liés à la précision de l'évaluation et à la protection de la vie privée. Pour répondre à ces défis, nous introduisons un modèle de langage juge, nommé PandaLM, qui est entraîné à distinguer le modèle supérieur parmi plusieurs LLMs. L'objectif de PandaLM va au-delà de la simple exactitude objective des réponses, qui est le principal focus des jeux de données d'évaluation traditionnels. Il prend en compte des facteurs subjectifs cruciaux tels que la concision relative, la clarté, l'adhésion aux instructions, l'exhaustivité et le formalisme. Pour garantir la fiabilité de PandaLM, nous collectons un jeu de données de test diversifié annoté par des humains, où tous les contextes sont générés par des humains et les étiquettes sont alignées avec les préférences humaines. Nos résultats indiquent que PandaLM-7B atteint 93,75 % de la capacité d'évaluation de GPT-3.5 et 88,28 % de celle de GPT-4 en termes de score F1 sur notre jeu de données de test. PandaLM permet une évaluation des LLM plus équitable mais à moindre coût, comme en témoignent les améliorations significatives obtenues par les modèles ajustés via PandaLM par rapport à leurs homologues entraînés avec les hyperparamètres par défaut d'Alpaca. De plus, PandaLM ne dépend pas d'évaluations basées sur des API, évitant ainsi les risques de fuite de données. Toutes les ressources de PandaLM sont disponibles à l'adresse https://github.com/WeOpenML/PandaLM.
English
Instruction tuning large language models (LLMs) remains a challenging task, owing to the complexity of hyperparameter selection and the difficulty involved in evaluating the tuned models. To determine the optimal hyperparameters, an automatic, robust, and reliable evaluation benchmark is essential. However, establishing such a benchmark is not a trivial task due to the challenges associated with evaluation accuracy and privacy protection. In response to these challenges, we introduce a judge large language model, named PandaLM, which is trained to distinguish the superior model given several LLMs. PandaLM's focus extends beyond just the objective correctness of responses, which is the main focus of traditional evaluation datasets. It addresses vital subjective factors such as relative conciseness, clarity, adherence to instructions, comprehensiveness, and formality. To ensure the reliability of PandaLM, we collect a diverse human-annotated test dataset, where all contexts are generated by humans and labels are aligned with human preferences. Our results indicate that PandaLM-7B achieves 93.75% of GPT-3.5's evaluation ability and 88.28% of GPT-4's in terms of F1-score on our test dataset. PandaLM enables the evaluation of LLM to be fairer but with less cost, evidenced by significant improvements achieved by models tuned through PandaLM compared to their counterparts trained with default Alpaca's hyperparameters. In addition, PandaLM does not depend on API-based evaluations, thus avoiding potential data leakage. All resources of PandaLM are released at https://github.com/WeOpenML/PandaLM.
PDF60December 15, 2024