ChatPaper.aiChatPaper

Auf dem Weg zu einer effizienten und robusten linguistischen Emotionsdiagnostik für die psychische Gesundheit durch Multi-Agenten-Anweisungsverfeinerung

Towards Efficient and Robust Linguistic Emotion Diagnosis for Mental Health via Multi-Agent Instruction Refinement

January 20, 2026
papers.authors: Jian Zhang, Zhangqi Wang, Zhiyuan Wang, Weiping Fu, Yu He, Haiping Zhu, Qika Lin, Jun Liu
cs.AI

papers.abstract

Sprachliche Ausdrücke von Emotionen wie Depressionen, Angstzuständen und traumaassoziierten Zuständen sind in klinischen Notizen, Beratungsdialogen und Online-Gesundheitscommunities allgegenwärtig. Eine genaue Erkennung dieser Emotionen ist für die klinische Triage, Risikobewertung und rechtzeitige Intervention unerlässlich. Obwohl Large Language Models (LLMs) bei Emotionsanalyseaufgaben eine starke Generalisierungsfähigkeit gezeigt haben, bleibt ihre diagnostische Zuverlässigkeit in hochriskanten, kontextintensiven medizinischen Umgebungen höchst empfindlich gegenüber dem Prompt-Design. Zudem stehen bestehende Methoden vor zwei zentralen Herausforderungen: emotionale Komorbidität, bei der mehrere verwobene emotionale Zustände die Vorhersage erschweren, und eine ineffiziente Erschließung klinisch relevanter Hinweise. Um diese Herausforderungen zu bewältigen, schlagen wir APOLO (Automated Prompt Optimization for Linguistic Emotion Diagnosis) vor – ein Framework, das systematisch einen breiteren und feiner granularen Prompt-Raum erkundet, um die diagnostische Effizienz und Robustheit zu verbessern. APOLO formuliert die Instruktionsverfeinerung als Partially Observable Markov Decision Process und nutzt einen Multi-Agenten-Kollaborationsmechanismus mit den Rollen Planner, Teacher, Critic, Student und Target. In diesem geschlossenen Kreislauf definiert der Planner eine Optimierungstrajektorie, während die Teacher-Critic-Student-Agenten iterativ Prompts verfeinern, um die Stabilität und Effektivität der Schlussfolgerung zu erhöhen. Der Target-Agent entscheidet auf Grundlage der Leistungsbewertung, ob die Optimierung fortgesetzt wird. Experimentelle Ergebnisse zeigen, dass APOLO die diagnostische Genauigkeit und Robustheit über domänenspezifische und stratifizierte Benchmarks hinweg konsistent verbessert. Dies demonstriert ein skalierbares und generalisierbares Paradigma für vertrauenswürdige LLM-Anwendungen im Bereich der psychischen Gesundheit.
English
Linguistic expressions of emotions such as depression, anxiety, and trauma-related states are pervasive in clinical notes, counseling dialogues, and online mental health communities, and accurate recognition of these emotions is essential for clinical triage, risk assessment, and timely intervention. Although large language models (LLMs) have demonstrated strong generalization ability in emotion analysis tasks, their diagnostic reliability in high-stakes, context-intensive medical settings remains highly sensitive to prompt design. Moreover, existing methods face two key challenges: emotional comorbidity, in which multiple intertwined emotional states complicate prediction, and inefficient exploration of clinically relevant cues. To address these challenges, we propose APOLO (Automated Prompt Optimization for Linguistic Emotion Diagnosis), a framework that systematically explores a broader and finer-grained prompt space to improve diagnostic efficiency and robustness. APOLO formulates instruction refinement as a Partially Observable Markov Decision Process and adopts a multi-agent collaboration mechanism involving Planner, Teacher, Critic, Student, and Target roles. Within this closed-loop framework, the Planner defines an optimization trajectory, while the Teacher-Critic-Student agents iteratively refine prompts to enhance reasoning stability and effectiveness, and the Target agent determines whether to continue optimization based on performance evaluation. Experimental results show that APOLO consistently improves diagnostic accuracy and robustness across domain-specific and stratified benchmarks, demonstrating a scalable and generalizable paradigm for trustworthy LLM applications in mental healthcare.
PDF22January 25, 2026