R1-Omni: Riconoscimento Emotivo Omni-Modale Interpretabile con Apprendimento per Rinforzo
R1-Omni: Explainable Omni-Multimodal Emotion Recognition with Reinforcing Learning
March 7, 2025
Autori: Jiaxing Zhao, Xihan Wei, Liefeng Bo
cs.AI
Abstract
In questo lavoro, presentiamo la prima applicazione del Reinforcement Learning con Ricompensa Verificabile (RLVR) a un modello linguistico di grandi dimensioni Omni-multimodale nel contesto del riconoscimento delle emozioni, un compito in cui sia le modalità visive che quelle audio svolgono ruoli cruciali. Utilizziamo RLVR per ottimizzare il modello Omni, migliorando significativamente le sue prestazioni in tre aspetti chiave: capacità di ragionamento, accuratezza nel riconoscimento delle emozioni e capacità di generalizzazione. L'introduzione di RLVR non solo migliora le prestazioni complessive del modello sui dati in-distribuzione, ma dimostra anche una robustezza superiore quando valutato su dataset out-of-distribution. Ancora più importante, la capacità di ragionamento migliorata consente un'analisi chiara dei contributi delle diverse modalità, in particolare delle informazioni visive e audio, nel processo di riconoscimento delle emozioni. Ciò fornisce preziose indicazioni per l'ottimizzazione dei modelli linguistici di grandi dimensioni multimodali.
English
In this work, we present the first application of Reinforcement Learning with
Verifiable Reward (RLVR) to an Omni-multimodal large language model in the
context of emotion recognition, a task where both visual and audio modalities
play crucial roles. We leverage RLVR to optimize the Omni model, significantly
enhancing its performance in three key aspects: reasoning capability, emotion
recognition accuracy, and generalization ability. The introduction of RLVR not
only improves the model's overall performance on in-distribution data but also
demonstrates superior robustness when evaluated on out-of-distribution
datasets. More importantly, the improved reasoning capability enables clear
analysis of the contributions of different modalities, particularly visual and
audio information, in the emotion recognition process. This provides valuable
insights into the optimization of multimodal large language models.Summary
AI-Generated Summary