ChatPaper.aiChatPaper

Fühlen LLMs? Emotionserkennung durch Prompts, Retrieval und Curriculum Learning

Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning

November 10, 2025
papers.authors: Xinran Li, Xiujuan Xu, Jiaqi Qiao, Yu Liu
cs.AI

papers.abstract

Emotionserkennung in Konversationen (ERC) ist eine entscheidende Aufgabe zum Verständnis menschlicher Emotionen und zur Ermöglichung natürlicher Mensch-Computer-Interaktion. Obwohl Large Language Models (LLMs) kürzlich großes Potenzial auf diesem Gebiet gezeigt haben, bleibt ihre Fähigkeit, die intrinsischen Verbindungen zwischen expliziten und impliziten Emotionen zu erfassen, begrenzt. Wir schlagen einen neuartigen ERC-Trainingsframework vor, PRC-Emo, der Prompt-Engineering, Demonstrations-Retrieval und Curriculum Learning integriert, mit dem Ziel zu untersuchen, ob LLMs effektiv Emotionen in Gesprächskontexten wahrnehmen können. Konkret entwerfen wir emotionssensitive Prompt-Vorlagen basierend auf expliziten und impliziten emotionalen Hinweisen, um das Modell besser beim Verständnis der psychologischen Zustände des Sprechers zu lenken. Wir konstruieren das erste dedizierte Demonstrations-Retrieval-Repository für ERC, das Trainingsbeispiele aus weit verbreiteten Datensätzen sowie hochwertige, von LLMs generierte und manuell verifizierte Dialogbeispiele enthält. Darüber hinaus führen wir eine Curriculum-Learning-Strategie in den LoRA-Feinabstimmungsprozess ein, die gewichtete emotionale Verschiebungen zwischen Äußerungen desselben Sprechers und verschiedener Sprecher integriert, um Schwierigkeitsgrade für Dialogbeispiele zuzuweisen, die dann in einer von einfach zu schwierig aufsteigenden Trainingssequenz angeordnet werden. Experimentelle Ergebnisse auf zwei Benchmark-Datensätzen – IEMOCAP und MELD – zeigen, dass unsere Methode eine neue State-of-the-Art (SOTA)-Leistung erreicht, was die Wirksamkeit und Generalisierbarkeit unseres Ansatzes zur Verbesserung LLM-basierten emotionalen Verstehens demonstriert.
English
Emotion Recognition in Conversation (ERC) is a crucial task for understanding human emotions and enabling natural human-computer interaction. Although Large Language Models (LLMs) have recently shown great potential in this field, their ability to capture the intrinsic connections between explicit and implicit emotions remains limited. We propose a novel ERC training framework, PRC-Emo, which integrates Prompt engineering, demonstration Retrieval, and Curriculum learning, with the goal of exploring whether LLMs can effectively perceive emotions in conversational contexts. Specifically, we design emotion-sensitive prompt templates based on both explicit and implicit emotional cues to better guide the model in understanding the speaker's psychological states. We construct the first dedicated demonstration retrieval repository for ERC, which includes training samples from widely used datasets, as well as high-quality dialogue examples generated by LLMs and manually verified. Moreover, we introduce a curriculum learning strategy into the LoRA fine-tuning process, incorporating weighted emotional shifts between same-speaker and different-speaker utterances to assign difficulty levels to dialogue samples, which are then organized in an easy-to-hard training sequence. Experimental results on two benchmark datasets-- IEMOCAP and MELD --show that our method achieves new state-of-the-art (SOTA) performance, demonstrating the effectiveness and generalizability of our approach in improving LLM-based emotional understanding.
PDF42February 7, 2026