ChatPaper.aiChatPaper

RLVER: Reinforcement Learning met Verifieerbare Emotiebeloningen voor Empathische Agents

RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents

July 3, 2025
Auteurs: Peisong Wang, Ruotian Ma, Bang Zhang, Xingyu Chen, Zhiwei He, Kang Luo, Qingsong Lv, Qingxuan Jiang, Zheng Xie, Shanyi Wang, Yuan Li, Fanghua Ye, Jian Li, Yifan Yang, Zhaopeng Tu, Xiaolong Li
cs.AI

Samenvatting

Grote taalmodellen (LLMs) blinken uit in logisch en algoritmisch redeneren, maar hun emotionele intelligentie (EQ) blijft ver achter bij hun cognitieve vaardigheden. Hoewel reinforcement learning met verifieerbare beloningen (RLVR) in andere domeinen vooruitgang heeft geboekt, blijft de toepassing ervan in dialogen—met name voor emotionele intelligentie—onderbelicht. In dit werk introduceren we RLVER, het eerste end-to-end reinforcement learning-framework dat gebruikmaakt van verifieerbare emotiebeloningen van gesimuleerde gebruikers om hogere-orde empathische vaardigheden in LLMs te ontwikkelen. Binnen dit framework nemen zelfconsistente affectieve gesimuleerde gebruikers deel aan dialoogrollouts en produceren deterministische emotiescores tijdens gesprekken, die dienen als beloningssignalen om het leren van het LLM te sturen. Het finetunen van het publiek beschikbare Qwen2.5-7B-Instruct-model met PPO verhoogt de Sentient-Benchmark-score van 13,3 naar 79,2, terwijl de wiskundige en programmeervaardigheden grotendeels behouden blijven. Uitgebreide experimenten onthullen dat: (i) RLVER consistent meerdere dialoogvaardigheden verbetert; (ii) Denkende en niet-denkende modellen verschillende trends vertonen—denkende modellen excelleren in empathie en inzicht, terwijl niet-denkende modellen de voorkeur geven aan actie; (iii) GRPO vaak stabiele verbeteringen oplevert, terwijl PPO bepaalde vaardigheden naar een hoger niveau kan tillen; (iv) Uitdagendere omgevingen zijn niet altijd beter—gematigde omgevingen kunnen sterkere resultaten opleveren. Onze resultaten tonen aan dat RLVER een praktische route is naar emotioneel intelligente en breed capabele taalagentschappen.
English
Large language models (LLMs) excel at logical and algorithmic reasoning, yet their emotional intelligence (EQ) still lags far behind their cognitive prowess. While reinforcement learning from verifiable rewards (RLVR) has advanced in other domains, its application to dialogue-especially for emotional intelligence-remains underexplored. In this work, we introduce RLVER, the first end-to-end reinforcement learning framework that leverages verifiable emotion rewards from simulated users to cultivate higher-order empathetic abilities in LLMs. Within this framework, self-consistent affective simulated users engage in dialogue rollouts and produce deterministic emotion scores during conversations, serving as reward signals to guide the LLM's learning. Fine-tuning publicly available Qwen2.5-7B-Instruct model with PPO boosts its Sentient-Benchmark score from 13.3 to 79.2 while largely preserving mathematical and coding competence. Extensive experiments reveal that: (i) RLVER consistently improves multiple dialogue capabilities; (ii) Thinking and non-thinking models show distinct trends--thinking models excel in empathy and insight, while non-thinking models favor action; (iii) GRPO often yields stable gains, while PPO can push certain capabilities to a higher ceiling; (iv) More challenging environments are not always better-moderate ones can yield stronger outcomes. Our results show that RLVER is a practical route toward emotionally intelligent and broadly capable language agents.
PDF312July 9, 2025