ChatPaper.aiChatPaper

Tricher aux évaluations automatiques de LLM : les modèles nuls obtiennent des taux de victoire élevés.

Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates

October 9, 2024
Auteurs: Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
cs.AI

Résumé

Les référentiels automatiques de LLM, tels qu'AlpacaEval 2.0, Arena-Hard-Auto et MT-Bench, sont devenus populaires pour évaluer les modèles de langage en raison de leur rentabilité et de leur extensibilité par rapport à l'évaluation humaine. Obtenir des taux de réussite élevés sur ces référentiels peut considérablement renforcer l'impact promotionnel des nouveaux modèles de langage publiés. Ce bénéfice promotionnel peut inciter à des astuces, telles que la manipulation de la longueur ou du style de sortie du modèle pour influencer les taux de réussite, même si plusieurs mécanismes ont été développés pour contrôler la longueur et démêler le style afin de réduire la possibilité de tricherie. Néanmoins, nous montrons qu'un "modèle nul" qui produit toujours une réponse constante (sans rapport avec les instructions d'entrée) peut tromper les référentiels automatiques et obtenir des taux de réussite classés au sommet : un taux de réussite de 86,5 % LC sur AlpacaEval 2.0 ; un score de 83,0 sur Arena-Hard-Auto ; et un score de 9,55 sur MT-Bench. De plus, les sorties de tricherie élaborées sont transférables car nous supposons que les instructions de ces référentiels (par exemple, 805 échantillons d'AlpacaEval 2.0) sont privées et inaccessibles. Bien que nos expériences soient principalement des preuves de concept, un adversaire pourrait utiliser des LLM pour générer des réponses de tricherie plus imperceptibles, bénéficiant de manière non éthique de taux de réussite élevés et d'un impact promotionnel. Nos conclusions appellent au développement de mécanismes anti-tricherie pour des référentiels automatiques fiables. Le code est disponible sur https://github.com/sail-sg/Cheating-LLM-Benchmarks.
English
Automatic LLM benchmarks, such as AlpacaEval 2.0, Arena-Hard-Auto, and MT-Bench, have become popular for evaluating language models due to their cost-effectiveness and scalability compared to human evaluation. Achieving high win rates on these benchmarks can significantly boost the promotional impact of newly released language models. This promotional benefit may motivate tricks, such as manipulating model output length or style to game win rates, even though several mechanisms have been developed to control length and disentangle style to reduce gameability. Nonetheless, we show that even a "null model" that always outputs a constant response (irrelevant to input instructions) can cheat automatic benchmarks and achieve top-ranked win rates: an 86.5% LC win rate on AlpacaEval 2.0; an 83.0 score on Arena-Hard-Auto; and a 9.55 score on MT-Bench. Moreover, the crafted cheating outputs are transferable because we assume that the instructions of these benchmarks (e.g., 805 samples of AlpacaEval 2.0) are private and cannot be accessed. While our experiments are primarily proof-of-concept, an adversary could use LLMs to generate more imperceptible cheating responses, unethically benefiting from high win rates and promotional impact. Our findings call for the development of anti-cheating mechanisms for reliable automatic benchmarks. The code is available at https://github.com/sail-sg/Cheating-LLM-Benchmarks.

Summary

AI-Generated Summary

PDF72November 16, 2024