DecodingTrust: Uma Avaliação Abrangente da Confiabilidade em Modelos GPT
DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models
June 20, 2023
Autores: Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, Sang T. Truong, Simran Arora, Mantas Mazeika, Dan Hendrycks, Zinan Lin, Yu Cheng, Sanmi Koyejo, Dawn Song, Bo Li
cs.AI
Resumo
Os modelos Generative Pre-trained Transformer (GPT) têm demonstrado progressos empolgantes em suas capacidades, capturando o interesse tanto de profissionais quanto do público em geral. No entanto, embora a literatura sobre a confiabilidade dos modelos GPT ainda seja limitada, profissionais têm proposto a utilização de modelos GPT avançados em aplicações sensíveis, como saúde e finanças — áreas onde erros podem ser custosos. Diante disso, este trabalho propõe uma avaliação abrangente da confiabilidade de grandes modelos de linguagem, com foco no GPT-4 e GPT-3.5, considerando diversas perspectivas — incluindo toxicidade, viés de estereótipos, robustez adversarial, robustez fora da distribuição, robustez em demonstrações adversariais, privacidade, ética em máquinas e justiça. Com base em nossas avaliações, descobrimos vulnerabilidades anteriormente não documentadas a ameaças à confiabilidade. Por exemplo, constatamos que os modelos GPT podem ser facilmente induzidos a gerar saídas tóxicas e tendenciosas e a vazar informações privadas, tanto dos dados de treinamento quanto do histórico de conversas. Também observamos que, embora o GPT-4 geralmente seja mais confiável que o GPT-3.5 em benchmarks padrão, o GPT-4 é mais vulnerável diante de sistemas de jailbreaking ou prompts de usuários, possivelmente porque o GPT-4 segue as instruções (enganosas) com maior precisão. Nosso trabalho ilustra uma avaliação abrangente da confiabilidade dos modelos GPT e lança luz sobre as lacunas de confiabilidade. Nosso benchmark está publicamente disponível em https://decodingtrust.github.io/.
English
Generative Pre-trained Transformer (GPT) models have exhibited exciting
progress in capabilities, capturing the interest of practitioners and the
public alike. Yet, while the literature on the trustworthiness of GPT models
remains limited, practitioners have proposed employing capable GPT models for
sensitive applications to healthcare and finance - where mistakes can be
costly. To this end, this work proposes a comprehensive trustworthiness
evaluation for large language models with a focus on GPT-4 and GPT-3.5,
considering diverse perspectives - including toxicity, stereotype bias,
adversarial robustness, out-of-distribution robustness, robustness on
adversarial demonstrations, privacy, machine ethics, and fairness. Based on our
evaluations, we discover previously unpublished vulnerabilities to
trustworthiness threats. For instance, we find that GPT models can be easily
misled to generate toxic and biased outputs and leak private information in
both training data and conversation history. We also find that although GPT-4
is usually more trustworthy than GPT-3.5 on standard benchmarks, GPT-4 is more
vulnerable given jailbreaking system or user prompts, potentially due to the
reason that GPT-4 follows the (misleading) instructions more precisely. Our
work illustrates a comprehensive trustworthiness evaluation of GPT models and
sheds light on the trustworthiness gaps. Our benchmark is publicly available at
https://decodingtrust.github.io/.