ChatPaper.aiChatPaper

PromptBench: Verso la Valutazione della Robustezza dei Modelli Linguistici di Grande Scala sugli Input Avversariali

PromptBench: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts

June 7, 2023
Autori: Kaijie Zhu, Jindong Wang, Jiaheng Zhou, Zichen Wang, Hao Chen, Yidong Wang, Linyi Yang, Wei Ye, Neil Zhenqiang Gong, Yue Zhang, Xing Xie
cs.AI

Abstract

La crescente dipendenza dai Large Language Models (LLM) in ambito accademico e industriale rende necessaria una comprensione approfondita della loro robustezza rispetto ai prompt. In risposta a questa esigenza cruciale, introduciamo PromptBench, un benchmark di robustezza progettato per misurare la resilienza dei LLM ai prompt avversari. Questo studio utilizza una vasta gamma di attacchi testuali avversari rivolti ai prompt a più livelli: carattere, parola, frase e semantico. Questi prompt vengono poi impiegati in diverse attività, come l'analisi del sentiment, l'inferenza del linguaggio naturale, la comprensione della lettura, la traduzione automatica e la risoluzione di problemi matematici. Il nostro studio genera 4.032 prompt avversari, valutati meticolosamente su 8 attività e 13 dataset, con un totale di 567.084 campioni di test. I nostri risultati dimostrano che i LLM contemporanei sono vulnerabili ai prompt avversari. Inoltre, presentiamo un'analisi completa per comprendere il mistero dietro la robustezza dei prompt e la sua trasferibilità. Offriamo quindi un'analisi approfondita della robustezza e raccomandazioni pragmatiche per la composizione dei prompt, utili sia ai ricercatori che agli utenti quotidiani. Rendiamo pubblicamente accessibili il nostro codice, i prompt e le metodologie per generare prompt avversari, favorendo e incoraggiando l'esplorazione collaborativa in questo campo cruciale: https://github.com/microsoft/promptbench.
English
The increasing reliance on Large Language Models (LLMs) across academia and industry necessitates a comprehensive understanding of their robustness to prompts. In response to this vital need, we introduce PromptBench, a robustness benchmark designed to measure LLMs' resilience to adversarial prompts. This study uses a plethora of adversarial textual attacks targeting prompts across multiple levels: character, word, sentence, and semantic. These prompts are then employed in diverse tasks, such as sentiment analysis, natural language inference, reading comprehension, machine translation, and math problem-solving. Our study generates 4,032 adversarial prompts, meticulously evaluated over 8 tasks and 13 datasets, with 567,084 test samples in total. Our findings demonstrate that contemporary LLMs are vulnerable to adversarial prompts. Furthermore, we present comprehensive analysis to understand the mystery behind prompt robustness and its transferability. We then offer insightful robustness analysis and pragmatic recommendations for prompt composition, beneficial to both researchers and everyday users. We make our code, prompts, and methodologies to generate adversarial prompts publicly accessible, thereby enabling and encouraging collaborative exploration in this pivotal field: https://github.com/microsoft/promptbench.
PDF30December 15, 2024