ChatPaper.aiChatPaper

DecodingTrust: Комплексная оценка надежности моделей GPT

DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models

June 20, 2023
Авторы: Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, Sang T. Truong, Simran Arora, Mantas Mazeika, Dan Hendrycks, Zinan Lin, Yu Cheng, Sanmi Koyejo, Dawn Song, Bo Li
cs.AI

Аннотация

Модели Generative Pre-trained Transformer (GPT) продемонстрировали впечатляющий прогресс в своих возможностях, привлекая внимание как специалистов, так и широкой общественности. Однако, несмотря на ограниченное количество исследований, посвященных надежности моделей GPT, практики предлагают использовать мощные GPT-модели в чувствительных областях, таких как здравоохранение и финансы, где ошибки могут быть крайне дорогостоящими. В связи с этим данная работа предлагает всестороннюю оценку надежности крупных языковых моделей с акцентом на GPT-4 и GPT-3.5, учитывая различные аспекты, включая токсичность, стереотипные предубеждения, устойчивость к атакам, устойчивость к данным вне распределения, устойчивость к враждебным демонстрациям, конфиденциальность, машинную этику и справедливость. На основе наших оценок мы обнаруживаем ранее неопубликованные уязвимости, связанные с угрозами надежности. Например, мы выяснили, что модели GPT могут быть легко введены в заблуждение для генерации токсичных и предвзятых выводов, а также для утечки конфиденциальной информации как из обучающих данных, так и из истории диалогов. Мы также обнаружили, что, хотя GPT-4 обычно более надежна, чем GPT-3.5, на стандартных тестах, GPT-4 оказывается более уязвимой при использовании методов "взлома" системы или вводящих в заблуждение пользовательских запросов, возможно, из-за того, что GPT-4 более точно следует (ошибочным) инструкциям. Наша работа представляет собой всестороннюю оценку надежности моделей GPT и выявляет пробелы в их надежности. Наш бенчмарк доступен публично по адресу https://decodingtrust.github.io/.
English
Generative Pre-trained Transformer (GPT) models have exhibited exciting progress in capabilities, capturing the interest of practitioners and the public alike. Yet, while the literature on the trustworthiness of GPT models remains limited, practitioners have proposed employing capable GPT models for sensitive applications to healthcare and finance - where mistakes can be costly. To this end, this work proposes a comprehensive trustworthiness evaluation for large language models with a focus on GPT-4 and GPT-3.5, considering diverse perspectives - including toxicity, stereotype bias, adversarial robustness, out-of-distribution robustness, robustness on adversarial demonstrations, privacy, machine ethics, and fairness. Based on our evaluations, we discover previously unpublished vulnerabilities to trustworthiness threats. For instance, we find that GPT models can be easily misled to generate toxic and biased outputs and leak private information in both training data and conversation history. We also find that although GPT-4 is usually more trustworthy than GPT-3.5 on standard benchmarks, GPT-4 is more vulnerable given jailbreaking system or user prompts, potentially due to the reason that GPT-4 follows the (misleading) instructions more precisely. Our work illustrates a comprehensive trustworthiness evaluation of GPT models and sheds light on the trustworthiness gaps. Our benchmark is publicly available at https://decodingtrust.github.io/.
PDF120December 15, 2024