ChatPaper.aiChatPaper

Verenigd Beloningsmodel voor Multimodale Interpretatie en Generatie

Unified Reward Model for Multimodal Understanding and Generation

March 7, 2025
Auteurs: Yibin Wang, Yuhang Zang, Hao Li, Cheng Jin, Jiaqi Wang
cs.AI

Samenvatting

Recente ontwikkelingen in het afstemmen van menselijke voorkeuren hebben de multimodale generatie en interpretatie aanzienlijk verbeterd. Een belangrijke aanpak is het trainen van beloningsmodellen om voorkeursoptimalisatie te begeleiden. Bestaande modellen zijn echter vaak taakspecifiek, wat hun aanpasbaarheid over diverse visuele toepassingen beperkt. Wij stellen ook dat het gezamenlijk leren om meerdere taken te beoordelen een synergetisch effect kan bevorderen, waarbij een verbeterd beeldbegrip de beoordeling van beeldgeneratie versterkt, en een verfijnde beeldbeoordeling de videoanalyse ten goede komt door betere frameanalyse. Hiertoe stelt dit artikel UnifiedReward voor, het eerste geïntegreerde beloningsmodel voor multimodale interpretatie en generatiebeoordeling, dat zowel paarsgewijze rangschikking als puntgewijze scoring mogelijk maakt, wat kan worden ingezet voor het afstemmen van voorkeuren in visuele modellen. Specifiek (1) ontwikkelen we eerst UnifiedReward op onze geconstrueerde grootschalige dataset van menselijke voorkeuren, inclusief zowel beeld- als videogeneratie/interpretatietaken. (2) Vervolgens wordt het gebruikt om automatisch hoogwaardige voorkeurspaardata te construeren op basis van de visuele modellen, waarbij hun uitvoer fijnmazig wordt gefilterd door paarsgewijze rangschikking en puntselectie. (3) Ten slotte worden deze data gebruikt voor hun voorkeursafstemming via Direct Preference Optimization (DPO). Experimentele resultaten tonen aan dat gezamenlijk leren om diverse visuele taken te beoordelen tot aanzienlijke wederzijdse voordelen kan leiden, en we passen onze pijplijn toe op zowel beeld- als videointerpretatie/generatietaken, wat de prestaties in elk domein aanzienlijk verbetert.
English
Recent advances in human preference alignment have significantly enhanced multimodal generation and understanding. A key approach is training reward models to guide preference optimization. However, existing models are often task-specific, limiting their adaptability across diverse visual applications. We also argue that jointly learning to assess multiple tasks may foster a synergistic effect, where improved image understanding enhances image generation assessment, and refined image evaluation benefits video assessment through better frame analysis. To this end, this paper proposes UnifiedReward, the first unified reward model for multimodal understanding and generation assessment, enabling both pairwise ranking and pointwise scoring, which can be employed for vision model preference alignment. Specifically, (1) we first develop UnifiedReward on our constructed large-scale human preference dataset, including both image and video generation/understanding tasks. (2) Then, it is utilized to automatically construct high-quality preference pair data based on the vision models, fine-gradually filtering their outputs through pair ranking and point sifting. (3) Finally, these data are used for their preference alignment through Direct Preference Optimization (DPO). Experimental results demonstrate that joint learning to assess diverse visual tasks can lead to substantial mutual benefits and we apply our pipeline to both image and video understanding/generation tasks, significantly improving the performance in each domain.

Summary

AI-Generated Summary

PDF1233March 10, 2025