Чувствуют ли большие языковые модели? Обучение распознаванию эмоций с помощью промптов, поиска и обучения по учебному плану
Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning
November 10, 2025
Авторы: Xinran Li, Xiujuan Xu, Jiaqi Qiao, Yu Liu
cs.AI
Аннотация
Распознавание эмоций в диалоге (ERC) является ключевой задачей для понимания человеческих эмоций и обеспечения естественного взаимодействия человека с компьютером. Хотя крупные языковые модели (LLM) недавно продемонстрировали большой потенциал в этой области, их способность улавливать внутренние связи между явными и неявными эмоциями остается ограниченной. Мы предлагаем новую обучающую структуру PRC-Emo для ERC, которая интегрирует проектирование промптов, извлечение демонстраций и обучение по учебному плану с целью исследования, способны ли LLM эффективно воспринимать эмоции в контексте беседы. В частности, мы разрабатываем эмоционально-чувствительные шаблоны промптов на основе как явных, так и неявных эмоциональных сигналов, чтобы лучше направлять модель в понимании психологических состояний говорящего. Мы создаем первое специализированное хранилище для извлечения демонстраций в ERC, которое включает образцы для обучения из широко используемых наборов данных, а также высококачественные примеры диалогов, сгенерированные LLM и проверенные вручную. Кроме того, мы внедряем стратегию обучения по учебному плану в процесс тонкой настройки LoRA, включая взвешенные эмоциональные сдвиги между репликами одного и разных говорящих для назначения уровней сложности образцам диалогов, которые затем организуются в последовательность обучения от простого к сложному. Результаты экспериментов на двух эталонных наборах данных — IEMOCAP и MELD — показывают, что наш метод достигает нового наилучшего результата (state-of-the-art, SOTA), демонстрируя эффективность и обобщаемость нашего подхода к улучшению эмоционального понимания на основе LLM.
English
Emotion Recognition in Conversation (ERC) is a crucial task for understanding
human emotions and enabling natural human-computer interaction. Although Large
Language Models (LLMs) have recently shown great potential in this field, their
ability to capture the intrinsic connections between explicit and implicit
emotions remains limited. We propose a novel ERC training framework, PRC-Emo,
which integrates Prompt engineering, demonstration Retrieval, and Curriculum
learning, with the goal of exploring whether LLMs can effectively perceive
emotions in conversational contexts. Specifically, we design emotion-sensitive
prompt templates based on both explicit and implicit emotional cues to better
guide the model in understanding the speaker's psychological states. We
construct the first dedicated demonstration retrieval repository for ERC, which
includes training samples from widely used datasets, as well as high-quality
dialogue examples generated by LLMs and manually verified. Moreover, we
introduce a curriculum learning strategy into the LoRA fine-tuning process,
incorporating weighted emotional shifts between same-speaker and
different-speaker utterances to assign difficulty levels to dialogue samples,
which are then organized in an easy-to-hard training sequence. Experimental
results on two benchmark datasets-- IEMOCAP and MELD --show that our method
achieves new state-of-the-art (SOTA) performance, demonstrating the
effectiveness and generalizability of our approach in improving LLM-based
emotional understanding.