ChatPaper.aiChatPaper

LLMは感情を感じるのか?プロンプト、検索、カリキュラム学習を用いた感情認識の教育

Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning

November 10, 2025
著者: Xinran Li, Xiujuan Xu, Jiaqi Qiao, Yu Liu
cs.AI

要旨

対話における感情認識(ERC)は、人間の感情を理解し、自然な人間とコンピュータの相互作用を可能にする上で重要な課題である。大規模言語モデル(LLM)は近年この分野で大きな可能性を示しているが、顕在的感情と潜在的感情の間の本質的関連性を捉える能力には依然として限界がある。本論文では、プロンプトエンジニアリング、デモンストレーション検索、カリキュラム学習を統合した新しいERC訓練フレームワーク「PRC-Emo」を提案し、LLMが対話文脈における感情を効果的に認識できるかどうかを探求する。具体的には、顕在的・潜在的感情手がかりに基づいて感情感受性プロンプトテンプレートを設計し、モデルが話者の心理状態を理解するのをより効果的に導く。さらに、ERC向けに初めて専用のデモンストレーション検索リポジトリを構築し、広く使用されているデータセットからの訓練サンプルに加えて、LLMによって生成され手動で検証された高品質な対話例を含める。加えて、LoRAファインチューニング過程にカリキュラム学習戦略を導入し、同一話者発話間と異なる話者発話間の重み付き感情変化を組み込むことで対話サンプルに難易度を割り当て、易から難への訓練シーケンスで構成する。2つのベンチマークデータセット(IEMOCAPとMELD)での実験結果は、本手法が新たなstate-of-the-art(SOTA)性能を達成し、LLMベースの感情理解を改善する本アプローチの有効性と一般化可能性を実証している。
English
Emotion Recognition in Conversation (ERC) is a crucial task for understanding human emotions and enabling natural human-computer interaction. Although Large Language Models (LLMs) have recently shown great potential in this field, their ability to capture the intrinsic connections between explicit and implicit emotions remains limited. We propose a novel ERC training framework, PRC-Emo, which integrates Prompt engineering, demonstration Retrieval, and Curriculum learning, with the goal of exploring whether LLMs can effectively perceive emotions in conversational contexts. Specifically, we design emotion-sensitive prompt templates based on both explicit and implicit emotional cues to better guide the model in understanding the speaker's psychological states. We construct the first dedicated demonstration retrieval repository for ERC, which includes training samples from widely used datasets, as well as high-quality dialogue examples generated by LLMs and manually verified. Moreover, we introduce a curriculum learning strategy into the LoRA fine-tuning process, incorporating weighted emotional shifts between same-speaker and different-speaker utterances to assign difficulty levels to dialogue samples, which are then organized in an easy-to-hard training sequence. Experimental results on two benchmark datasets-- IEMOCAP and MELD --show that our method achieves new state-of-the-art (SOTA) performance, demonstrating the effectiveness and generalizability of our approach in improving LLM-based emotional understanding.
PDF32December 2, 2025