ChatPaper.aiChatPaper

Modello Unificato di Ricompensa per la Comprensione e Generazione Multimodale

Unified Reward Model for Multimodal Understanding and Generation

March 7, 2025
Autori: Yibin Wang, Yuhang Zang, Hao Li, Cheng Jin, Jiaqi Wang
cs.AI

Abstract

I recenti progressi nell'allineamento delle preferenze umane hanno notevolmente migliorato la generazione e la comprensione multimodale. Un approccio chiave consiste nell'addestrare modelli di ricompensa per guidare l'ottimizzazione delle preferenze. Tuttavia, i modelli esistenti sono spesso specifici per singoli compiti, limitando la loro adattabilità in diverse applicazioni visive. Sosteniamo inoltre che l'apprendimento congiunto per valutare più compiti possa favorire un effetto sinergico, in cui una migliore comprensione delle immagini migliora la valutazione della generazione di immagini, e una valutazione più raffinata delle immagini avvantaggia la valutazione dei video attraverso una migliore analisi dei fotogrammi. A tal fine, questo articolo propone UnifiedReward, il primo modello di ricompensa unificato per la comprensione multimodale e la valutazione della generazione, che consente sia il ranking a coppie che il punteggio puntuale, utilizzabile per l'allineamento delle preferenze nei modelli visivi. Nello specifico, (1) sviluppiamo inizialmente UnifiedReward sul nostro ampio dataset di preferenze umane, che include sia compiti di generazione che di comprensione di immagini e video. (2) Successivamente, viene utilizzato per costruire automaticamente dati di coppie di preferenze di alta qualità basati sui modelli visivi, filtrando gradualmente i loro output attraverso il ranking a coppie e la selezione puntuale. (3) Infine, questi dati vengono utilizzati per l'allineamento delle preferenze tramite Direct Preference Optimization (DPO). I risultati sperimentali dimostrano che l'apprendimento congiunto per valutare compiti visivi diversi può portare a sostanziali benefici reciproci, e applichiamo la nostra pipeline sia ai compiti di comprensione che di generazione di immagini e video, migliorando significativamente le prestazioni in ciascun dominio.
English
Recent advances in human preference alignment have significantly enhanced multimodal generation and understanding. A key approach is training reward models to guide preference optimization. However, existing models are often task-specific, limiting their adaptability across diverse visual applications. We also argue that jointly learning to assess multiple tasks may foster a synergistic effect, where improved image understanding enhances image generation assessment, and refined image evaluation benefits video assessment through better frame analysis. To this end, this paper proposes UnifiedReward, the first unified reward model for multimodal understanding and generation assessment, enabling both pairwise ranking and pointwise scoring, which can be employed for vision model preference alignment. Specifically, (1) we first develop UnifiedReward on our constructed large-scale human preference dataset, including both image and video generation/understanding tasks. (2) Then, it is utilized to automatically construct high-quality preference pair data based on the vision models, fine-gradually filtering their outputs through pair ranking and point sifting. (3) Finally, these data are used for their preference alignment through Direct Preference Optimization (DPO). Experimental results demonstrate that joint learning to assess diverse visual tasks can lead to substantial mutual benefits and we apply our pipeline to both image and video understanding/generation tasks, significantly improving the performance in each domain.

Summary

AI-Generated Summary

PDF1233March 10, 2025