Dinâmica de Persuasão em LLMs: Investigando Robustez e Adaptabilidade em Conhecimento e Segurança com DuET-PD
Persuasion Dynamics in LLMs: Investigating Robustness and Adaptability in Knowledge and Safety with DuET-PD
August 24, 2025
Autores: Bryan Chen Zhengyu Tan, Daniel Wai Kit Chin, Zhengyuan Liu, Nancy F. Chen, Roy Ka-Wei Lee
cs.AI
Resumo
Modelos de Linguagem de Grande Escala (LLMs) podem enfrentar dificuldades para equilibrar a credulidade em relação à desinformação e a resistência a correções válidas em diálogos persuasivos, um desafio crítico para a implantação confiável. Apresentamos o DuET-PD (Avaliação Dual para Confiança em Diálogos Persuasivos), um framework que avalia a dinâmica de mudança de posicionamento em múltiplos turnos ao longo de duas dimensões: tipo de persuasão (corretiva/enganosa) e domínio (conhecimento via MMLU-Pro, e segurança via SALAD-Bench). Descobrimos que mesmo um modelo de última geração como o GPT-4o alcança apenas 27,32% de precisão no MMLU-Pro sob persuasões enganosas sustentadas. Além disso, os resultados revelam uma tendência preocupante de aumento de sifofania em modelos open-source mais recentes. Para abordar isso, introduzimos o Holistic DPO, uma abordagem de treinamento que equilibra exemplos de persuasão positivos e negativos. Diferente de técnicas de prompt ou treinamento apenas de resistência, o Holistic DPO melhora tanto a robustez à desinformação quanto a receptividade a correções, aumentando a precisão do Llama-3.1-8B-Instruct sob persuasão enganosa em contextos de segurança de 4,21% para 76,54%. Essas contribuições oferecem um caminho para o desenvolvimento de LLMs mais confiáveis e adaptáveis para diálogos de múltiplos turnos. O código está disponível em https://github.com/Social-AI-Studio/DuET-PD.
English
Large Language Models (LLMs) can struggle to balance gullibility to
misinformation and resistance to valid corrections in persuasive dialogues, a
critical challenge for reliable deployment. We introduce DuET-PD (Dual
Evaluation for Trust in Persuasive Dialogues), a framework evaluating
multi-turn stance-change dynamics across dual dimensions: persuasion type
(corrective/misleading) and domain (knowledge via MMLU-Pro, and safety via
SALAD-Bench). We find that even a state-of-the-art model like GPT-4o achieves
only 27.32% accuracy in MMLU-Pro under sustained misleading persuasions.
Moreover, results reveal a concerning trend of increasing sycophancy in newer
open-source models. To address this, we introduce Holistic DPO, a training
approach balancing positive and negative persuasion examples. Unlike prompting
or resist-only training, Holistic DPO enhances both robustness to
misinformation and receptiveness to corrections, improving
Llama-3.1-8B-Instruct's accuracy under misleading persuasion in safety contexts
from 4.21% to 76.54%. These contributions offer a pathway to developing more
reliable and adaptable LLMs for multi-turn dialogue. Code is available at
https://github.com/Social-AI-Studio/DuET-PD.