ChatPaper.aiChatPaper

LLM은 감정을 느낄까? 프롬프트, 검색 및 커리큘럼 러닝을 활용한 감정 인식 교육

Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning

November 10, 2025
저자: Xinran Li, Xiujuan Xu, Jiaqi Qiao, Yu Liu
cs.AI

초록

대화 감정 인식(ERC)은 인간의 감정을 이해하고 자연스러운 인간-컴퓨터 상호작용을 가능하게 하는 중요한 과제입니다. 대규모 언어 모델(LLM)이 최근 이 분야에서 큰 잠재력을 보여주고 있지만, 명시적 감정과 암묵적 감정 사이의 내재적 연결을 포착하는 능력은 여전히 제한적입니다. 본 연구에서는 LLM이 대화 맥락에서 감정을 효과적으로 인지할 수 있는지 탐구하기 위해 프롬프트 엔지니어링, 데모 검색, 커리큘럼 학습을 통합한 새로운 ERC 훈련 프레임워크인 PRC-Emo를 제안합니다. 구체적으로, 화자의 심리 상태를 더 잘 이해하도록 모델을 유도하기 위해 명시적 및 암묵적 감정 단서를 기반으로 감정 민감형 프롬프트 템플릿을 설계합니다. 또한 널리 사용되는 데이터셋의 훈련 샘플과 LLM이 생성 후 수동으로 검증된 고품질 대화 예제를 포함하는 ERC 전용 최초의 데모 검색 저장소를 구축합니다. 더 나아가 LoRA 미세 조정 과정에 커리큘럼 학습 전략을 도입하여 동일 화자와 상이 화자 발화 간의 가중 감정 변화를 활용하여 대화 샘플에 난이도를 부여하고, 이를 쉬운 것에서 어려운 순서로 훈련 시퀀스를 구성합니다. IEMOCAP과 MELD라는 두 벤치마크 데이터셋에 대한 실험 결과, 우리의 방법이 새로운 최첨단(SOTA) 성능을 달성하여 LLM 기반 감정 이해 개선에 대한 우리 접근법의 효과성과 일반화 능력을 입증하였습니다.
English
Emotion Recognition in Conversation (ERC) is a crucial task for understanding human emotions and enabling natural human-computer interaction. Although Large Language Models (LLMs) have recently shown great potential in this field, their ability to capture the intrinsic connections between explicit and implicit emotions remains limited. We propose a novel ERC training framework, PRC-Emo, which integrates Prompt engineering, demonstration Retrieval, and Curriculum learning, with the goal of exploring whether LLMs can effectively perceive emotions in conversational contexts. Specifically, we design emotion-sensitive prompt templates based on both explicit and implicit emotional cues to better guide the model in understanding the speaker's psychological states. We construct the first dedicated demonstration retrieval repository for ERC, which includes training samples from widely used datasets, as well as high-quality dialogue examples generated by LLMs and manually verified. Moreover, we introduce a curriculum learning strategy into the LoRA fine-tuning process, incorporating weighted emotional shifts between same-speaker and different-speaker utterances to assign difficulty levels to dialogue samples, which are then organized in an easy-to-hard training sequence. Experimental results on two benchmark datasets-- IEMOCAP and MELD --show that our method achieves new state-of-the-art (SOTA) performance, demonstrating the effectiveness and generalizability of our approach in improving LLM-based emotional understanding.
PDF42February 7, 2026