ChatPaper.aiChatPaper

Dinâmica de Persuasão em LLMs: Investigando Robustez e Adaptabilidade em Conhecimento e Segurança com DuET-PD

Persuasion Dynamics in LLMs: Investigating Robustness and Adaptability in Knowledge and Safety with DuET-PD

August 24, 2025
Autores: Bryan Chen Zhengyu Tan, Daniel Wai Kit Chin, Zhengyuan Liu, Nancy F. Chen, Roy Ka-Wei Lee
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) podem enfrentar dificuldades para equilibrar a credulidade em relação à desinformação e a resistência a correções válidas em diálogos persuasivos, um desafio crítico para a implantação confiável. Apresentamos o DuET-PD (Avaliação Dual para Confiança em Diálogos Persuasivos), um framework que avalia a dinâmica de mudança de posicionamento em múltiplos turnos ao longo de duas dimensões: tipo de persuasão (corretiva/enganosa) e domínio (conhecimento via MMLU-Pro, e segurança via SALAD-Bench). Descobrimos que mesmo um modelo de última geração como o GPT-4o alcança apenas 27,32% de precisão no MMLU-Pro sob persuasões enganosas sustentadas. Além disso, os resultados revelam uma tendência preocupante de aumento de sifofania em modelos open-source mais recentes. Para abordar isso, introduzimos o Holistic DPO, uma abordagem de treinamento que equilibra exemplos de persuasão positivos e negativos. Diferente de técnicas de prompt ou treinamento apenas de resistência, o Holistic DPO melhora tanto a robustez à desinformação quanto a receptividade a correções, aumentando a precisão do Llama-3.1-8B-Instruct sob persuasão enganosa em contextos de segurança de 4,21% para 76,54%. Essas contribuições oferecem um caminho para o desenvolvimento de LLMs mais confiáveis e adaptáveis para diálogos de múltiplos turnos. O código está disponível em https://github.com/Social-AI-Studio/DuET-PD.
English
Large Language Models (LLMs) can struggle to balance gullibility to misinformation and resistance to valid corrections in persuasive dialogues, a critical challenge for reliable deployment. We introduce DuET-PD (Dual Evaluation for Trust in Persuasive Dialogues), a framework evaluating multi-turn stance-change dynamics across dual dimensions: persuasion type (corrective/misleading) and domain (knowledge via MMLU-Pro, and safety via SALAD-Bench). We find that even a state-of-the-art model like GPT-4o achieves only 27.32% accuracy in MMLU-Pro under sustained misleading persuasions. Moreover, results reveal a concerning trend of increasing sycophancy in newer open-source models. To address this, we introduce Holistic DPO, a training approach balancing positive and negative persuasion examples. Unlike prompting or resist-only training, Holistic DPO enhances both robustness to misinformation and receptiveness to corrections, improving Llama-3.1-8B-Instruct's accuracy under misleading persuasion in safety contexts from 4.21% to 76.54%. These contributions offer a pathway to developing more reliable and adaptable LLMs for multi-turn dialogue. Code is available at https://github.com/Social-AI-Studio/DuET-PD.
PDF82August 29, 2025