LongEmotion: Misurare l'Intelligenza Emotiva dei Modelli Linguistici di Grande Scala nell'Interazione a Lungo Contesto
LongEmotion: Measuring Emotional Intelligence of Large Language Models in Long-Context Interaction
September 9, 2025
Autori: Weichu Liu, Jing Xiong, Yuxuan Hu, Zixuan Li, Minghuan Tan, Ningning Mao, Chenyang Zhao, Zhongwei Wan, Chaofan Tao, Wendong Xu, Hui Shen, Chengming Li, Lingpeng Kong, Ngai Wong
cs.AI
Abstract
I grandi modelli linguistici (LLM) compiono progressi significativi nell'Intelligenza Emotiva (IE) e nella comprensione di contesti lunghi. Tuttavia, i benchmark esistenti tendono a trascurare alcuni aspetti dell'IE in scenari di contesto lungo, specialmente in contesti realistici e pratici dove le interazioni sono prolungate, diversificate e spesso rumorose. Per avvicinarci a tali contesti realistici, presentiamo LongEmotion, un benchmark specificamente progettato per compiti di IE in contesti lunghi. Copre un insieme diversificato di compiti, tra cui Classificazione delle Emozioni, Rilevamento delle Emozioni, Domande e Risposte sulle Emozioni, Conversazione Emotiva, Riassunto Emotivo ed Espressione Emotiva. In media, la lunghezza dell'input per questi compiti raggiunge 8.777 token, con la generazione di testi lunghi richiesta per l'Espressione Emotiva. Per migliorare le prestazioni in condizioni realistiche, incorporiamo la Generazione Aumentata dal Recupero (RAG) e la Modellazione Emotiva Collaborativa (CoEM), e le confrontiamo con i metodi standard basati su prompt. A differenza degli approcci convenzionali, il nostro metodo RAG sfrutta sia il contesto della conversazione che il grande modello linguistico stesso come fonti di recupero, evitando la dipendenza da basi di conoscenza esterne. Il metodo CoEM migliora ulteriormente le prestazioni scomponendo il compito in cinque fasi, integrando sia l'aumentazione dal recupero che l'iniezione limitata di conoscenza. I risultati sperimentali mostrano che sia RAG che CoEM migliorano costantemente le prestazioni legate all'IE nella maggior parte dei compiti di contesto lungo, avvicinando i LLM a applicazioni di IE più pratiche e reali. Inoltre, abbiamo condotto uno studio comparativo sui modelli della serie GPT per evidenziare le differenze tra vari modelli in termini di IE. Il codice è disponibile su GitHub all'indirizzo https://github.com/LongEmotion/LongEmotion, e la pagina del progetto può essere trovata all'indirizzo https://longemotion.github.io/.
English
Large language models (LLMs) make significant progress in Emotional
Intelligence (EI) and long-context understanding. However, existing benchmarks
tend to overlook certain aspects of EI in long-context scenarios, especially
under realistic, practical settings where interactions are lengthy, diverse,
and often noisy. To move towards such realistic settings, we present
LongEmotion, a benchmark specifically designed for long-context EI tasks. It
covers a diverse set of tasks, including Emotion Classification, Emotion
Detection, Emotion QA, Emotion Conversation, Emotion Summary, and Emotion
Expression. On average, the input length for these tasks reaches 8,777 tokens,
with long-form generation required for Emotion Expression. To enhance
performance under realistic constraints, we incorporate Retrieval-Augmented
Generation (RAG) and Collaborative Emotional Modeling (CoEM), and compare them
with standard prompt-based methods. Unlike conventional approaches, our RAG
method leverages both the conversation context and the large language model
itself as retrieval sources, avoiding reliance on external knowledge bases. The
CoEM method further improves performance by decomposing the task into five
stages, integrating both retrieval augmentation and limited knowledge
injection. Experimental results show that both RAG and CoEM consistently
enhance EI-related performance across most long-context tasks, advancing LLMs
toward more practical and real-world EI applications. Furthermore, we conducted
a comparative case study experiment on the GPT series to demonstrate the
differences among various models in terms of EI. Code is available on GitHub at
https://github.com/LongEmotion/LongEmotion, and the project page can be found
at https://longemotion.github.io/.