LongEmotion: Medindo a Inteligência Emocional de Modelos de Linguagem de Grande Porte em Interações de Contexto Longo
LongEmotion: Measuring Emotional Intelligence of Large Language Models in Long-Context Interaction
September 9, 2025
Autores: Weichu Liu, Jing Xiong, Yuxuan Hu, Zixuan Li, Minghuan Tan, Ningning Mao, Chenyang Zhao, Zhongwei Wan, Chaofan Tao, Wendong Xu, Hui Shen, Chengming Li, Lingpeng Kong, Ngai Wong
cs.AI
Resumo
Modelos de linguagem de grande escala (LLMs) têm feito progressos significativos em Inteligência Emocional (IE) e compreensão de contexto longo. No entanto, os benchmarks existentes tendem a negligenciar certos aspectos da IE em cenários de contexto longo, especialmente em configurações práticas e realistas, onde as interações são longas, diversas e frequentemente ruidosas. Para avançar em direção a essas configurações realistas, apresentamos o LongEmotion, um benchmark especificamente projetado para tarefas de IE em contexto longo. Ele abrange um conjunto diversificado de tarefas, incluindo Classificação de Emoções, Detecção de Emoções, Perguntas e Respostas sobre Emoções, Conversa Emocional, Resumo Emocional e Expressão Emocional. Em média, o comprimento da entrada para essas tarefas chega a 8.777 tokens, com geração de texto longo necessária para a Expressão Emocional. Para melhorar o desempenho sob restrições realistas, incorporamos Geração Aumentada por Recuperação (RAG) e Modelagem Emocional Colaborativa (CoEM), e as comparamos com métodos padrão baseados em prompts. Diferente das abordagens convencionais, nosso método RAG aproveita tanto o contexto da conversa quanto o próprio modelo de linguagem de grande escala como fontes de recuperação, evitando a dependência de bases de conhecimento externas. O método CoEM melhora ainda mais o desempenho ao decompor a tarefa em cinco estágios, integrando tanto a recuperação aumentada quanto a injeção limitada de conhecimento. Os resultados experimentais mostram que tanto RAG quanto CoEM consistentemente melhoram o desempenho relacionado à IE na maioria das tarefas de contexto longo, avançando os LLMs em direção a aplicações de IE mais práticas e do mundo real. Além disso, realizamos um estudo de caso comparativo na série GPT para demonstrar as diferenças entre vários modelos em termos de IE. O código está disponível no GitHub em https://github.com/LongEmotion/LongEmotion, e a página do projeto pode ser encontrada em https://longemotion.github.io/.
English
Large language models (LLMs) make significant progress in Emotional
Intelligence (EI) and long-context understanding. However, existing benchmarks
tend to overlook certain aspects of EI in long-context scenarios, especially
under realistic, practical settings where interactions are lengthy, diverse,
and often noisy. To move towards such realistic settings, we present
LongEmotion, a benchmark specifically designed for long-context EI tasks. It
covers a diverse set of tasks, including Emotion Classification, Emotion
Detection, Emotion QA, Emotion Conversation, Emotion Summary, and Emotion
Expression. On average, the input length for these tasks reaches 8,777 tokens,
with long-form generation required for Emotion Expression. To enhance
performance under realistic constraints, we incorporate Retrieval-Augmented
Generation (RAG) and Collaborative Emotional Modeling (CoEM), and compare them
with standard prompt-based methods. Unlike conventional approaches, our RAG
method leverages both the conversation context and the large language model
itself as retrieval sources, avoiding reliance on external knowledge bases. The
CoEM method further improves performance by decomposing the task into five
stages, integrating both retrieval augmentation and limited knowledge
injection. Experimental results show that both RAG and CoEM consistently
enhance EI-related performance across most long-context tasks, advancing LLMs
toward more practical and real-world EI applications. Furthermore, we conducted
a comparative case study experiment on the GPT series to demonstrate the
differences among various models in terms of EI. Code is available on GitHub at
https://github.com/LongEmotion/LongEmotion, and the project page can be found
at https://longemotion.github.io/.