ChatPaper.aiChatPaper

Modèle de Récompense Unifié pour la Compréhension et la Génération Multimodales

Unified Reward Model for Multimodal Understanding and Generation

March 7, 2025
Auteurs: Yibin Wang, Yuhang Zang, Hao Li, Cheng Jin, Jiaqi Wang
cs.AI

Résumé

Les récents progrès dans l'alignement des préférences humaines ont considérablement amélioré la génération et la compréhension multimodales. Une approche clé consiste à entraîner des modèles de récompense pour guider l'optimisation des préférences. Cependant, les modèles existants sont souvent spécifiques à une tâche, limitant ainsi leur adaptabilité à diverses applications visuelles. Nous soutenons également que l'apprentissage conjoint pour évaluer plusieurs tâches peut favoriser un effet synergique, où une meilleure compréhension des images améliore l'évaluation de la génération d'images, et une évaluation affinée des images profite à l'évaluation des vidéos grâce à une meilleure analyse des trames. Dans cette optique, cet article propose UnifiedReward, le premier modèle de récompense unifié pour l'évaluation de la compréhension et de la génération multimodales, permettant à la fois un classement par paires et une notation ponctuelle, qui peut être utilisé pour l'alignement des préférences des modèles visuels. Plus précisément, (1) nous développons d'abord UnifiedReward sur notre ensemble de données à grande échelle de préférences humaines, incluant à la fois des tâches de génération et de compréhension d'images et de vidéos. (2) Ensuite, il est utilisé pour construire automatiquement des données de paires de préférences de haute qualité basées sur les modèles visuels, en filtrant progressivement leurs sorties par classement par paires et sélection ponctuelle. (3) Enfin, ces données sont utilisées pour l'alignement de leurs préférences via l'Optimisation Directe des Préférences (DPO). Les résultats expérimentaux démontrent que l'apprentissage conjoint pour évaluer diverses tâches visuelles peut conduire à des avantages mutuels substantiels, et nous appliquons notre pipeline à la fois aux tâches de compréhension et de génération d'images et de vidéos, améliorant significativement les performances dans chaque domaine.
English
Recent advances in human preference alignment have significantly enhanced multimodal generation and understanding. A key approach is training reward models to guide preference optimization. However, existing models are often task-specific, limiting their adaptability across diverse visual applications. We also argue that jointly learning to assess multiple tasks may foster a synergistic effect, where improved image understanding enhances image generation assessment, and refined image evaluation benefits video assessment through better frame analysis. To this end, this paper proposes UnifiedReward, the first unified reward model for multimodal understanding and generation assessment, enabling both pairwise ranking and pointwise scoring, which can be employed for vision model preference alignment. Specifically, (1) we first develop UnifiedReward on our constructed large-scale human preference dataset, including both image and video generation/understanding tasks. (2) Then, it is utilized to automatically construct high-quality preference pair data based on the vision models, fine-gradually filtering their outputs through pair ranking and point sifting. (3) Finally, these data are used for their preference alignment through Direct Preference Optimization (DPO). Experimental results demonstrate that joint learning to assess diverse visual tasks can lead to substantial mutual benefits and we apply our pipeline to both image and video understanding/generation tasks, significantly improving the performance in each domain.

Summary

AI-Generated Summary

PDF1233March 10, 2025