ChatPaper.aiChatPaper

Dynamiques de persuasion dans les LLM : Étude de la robustesse et de l'adaptabilité des connaissances et de la sécurité avec DuET-PD

Persuasion Dynamics in LLMs: Investigating Robustness and Adaptability in Knowledge and Safety with DuET-PD

August 24, 2025
papers.authors: Bryan Chen Zhengyu Tan, Daniel Wai Kit Chin, Zhengyuan Liu, Nancy F. Chen, Roy Ka-Wei Lee
cs.AI

papers.abstract

Les grands modèles de langage (LLMs) peuvent éprouver des difficultés à équilibrer leur crédulité face à la désinformation et leur résistance aux corrections valides dans les dialogues persuasifs, un défi crucial pour un déploiement fiable. Nous présentons DuET-PD (Dual Evaluation for Trust in Persuasive Dialogues), un cadre d'évaluation des dynamiques de changement de position sur plusieurs tours selon deux dimensions : le type de persuasion (corrective/trompeuse) et le domaine (connaissance via MMLU-Pro, et sécurité via SALAD-Bench). Nous constatons que même un modèle de pointe comme GPT-4o n'atteint que 27,32 % de précision dans MMLU-Pro sous l'effet de persuasions trompeuses soutenues. De plus, les résultats révèlent une tendance inquiétante à l'augmentation de la flagornerie dans les modèles open-source plus récents. Pour y remédier, nous introduisons Holistic DPO, une approche d'entraînement qui équilibre les exemples de persuasion positifs et négatifs. Contrairement à l'incitation ou à l'entraînement axé uniquement sur la résistance, Holistic DPO améliore à la fois la robustesse face à la désinformation et la réceptivité aux corrections, augmentant la précision de Llama-3.1-8B-Instruct sous persuasion trompeuse dans des contextes de sécurité de 4,21 % à 76,54 %. Ces contributions offrent une voie pour développer des LLMs plus fiables et adaptables pour les dialogues multi-tours. Le code est disponible à l'adresse https://github.com/Social-AI-Studio/DuET-PD.
English
Large Language Models (LLMs) can struggle to balance gullibility to misinformation and resistance to valid corrections in persuasive dialogues, a critical challenge for reliable deployment. We introduce DuET-PD (Dual Evaluation for Trust in Persuasive Dialogues), a framework evaluating multi-turn stance-change dynamics across dual dimensions: persuasion type (corrective/misleading) and domain (knowledge via MMLU-Pro, and safety via SALAD-Bench). We find that even a state-of-the-art model like GPT-4o achieves only 27.32% accuracy in MMLU-Pro under sustained misleading persuasions. Moreover, results reveal a concerning trend of increasing sycophancy in newer open-source models. To address this, we introduce Holistic DPO, a training approach balancing positive and negative persuasion examples. Unlike prompting or resist-only training, Holistic DPO enhances both robustness to misinformation and receptiveness to corrections, improving Llama-3.1-8B-Instruct's accuracy under misleading persuasion in safety contexts from 4.21% to 76.54%. These contributions offer a pathway to developing more reliable and adaptable LLMs for multi-turn dialogue. Code is available at https://github.com/Social-AI-Studio/DuET-PD.
PDF82August 29, 2025