ChatPaper.aiChatPaper

Мошенничество на автоматических бенчмарках LLM: Нулевые модели достигают высоких показателей побед.

Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates

October 9, 2024
Авторы: Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
cs.AI

Аннотация

Автоматические бенчмарки LLM, такие как AlpacaEval 2.0, Arena-Hard-Auto и MT-Bench, стали популярными для оценки языковых моделей из-за их экономической эффективности и масштабируемости по сравнению с оценкой человеком. Достижение высоких показателей побед на этих бенчмарках может значительно усилить рекламный эффект вновь выпущенных языковых моделей. Этот рекламный бонус может стимулировать уловки, такие как манипуляция длиной или стилем вывода модели для увеличения показателей побед, даже если были разработаны механизмы для контроля длины и разделения стиля для уменьшения возможности манипуляций. Тем не менее, мы показываем, что даже "нулевая модель", которая всегда выводит постоянный ответ (независимо от входных инструкций), может обмануть автоматические бенчмарки и достичь победных результатов лучшего ранга: показатель побед 86.5% LC на AlpacaEval 2.0; оценка 83.0 на Arena-Hard-Auto; и оценка 9.55 на MT-Bench. Более того, созданные обманные выводы могут быть переданы, поскольку мы предполагаем, что инструкции этих бенчмарков (например, 805 образцов AlpacaEval 2.0) являются конфиденциальными и не могут быть получены. Хотя наши эксперименты в первую очередь являются концептуальным доказательством, злоумышленник может использовать LLM для генерации более незаметных обманных ответов, неэтично получая высокие показатели побед и рекламный эффект. Наши результаты требуют разработки механизмов противодействия обману для надежных автоматических бенчмарков. Код доступен по ссылке https://github.com/sail-sg/Cheating-LLM-Benchmarks.
English
Automatic LLM benchmarks, such as AlpacaEval 2.0, Arena-Hard-Auto, and MT-Bench, have become popular for evaluating language models due to their cost-effectiveness and scalability compared to human evaluation. Achieving high win rates on these benchmarks can significantly boost the promotional impact of newly released language models. This promotional benefit may motivate tricks, such as manipulating model output length or style to game win rates, even though several mechanisms have been developed to control length and disentangle style to reduce gameability. Nonetheless, we show that even a "null model" that always outputs a constant response (irrelevant to input instructions) can cheat automatic benchmarks and achieve top-ranked win rates: an 86.5% LC win rate on AlpacaEval 2.0; an 83.0 score on Arena-Hard-Auto; and a 9.55 score on MT-Bench. Moreover, the crafted cheating outputs are transferable because we assume that the instructions of these benchmarks (e.g., 805 samples of AlpacaEval 2.0) are private and cannot be accessed. While our experiments are primarily proof-of-concept, an adversary could use LLMs to generate more imperceptible cheating responses, unethically benefiting from high win rates and promotional impact. Our findings call for the development of anti-cheating mechanisms for reliable automatic benchmarks. The code is available at https://github.com/sail-sg/Cheating-LLM-Benchmarks.

Summary

AI-Generated Summary

PDF72November 16, 2024