Унифицированная модель вознаграждения для мультимодального понимания и генерации
Unified Reward Model for Multimodal Understanding and Generation
March 7, 2025
Авторы: Yibin Wang, Yuhang Zang, Hao Li, Cheng Jin, Jiaqi Wang
cs.AI
Аннотация
Последние достижения в области согласования человеческих предпочтений значительно улучшили возможности мультимодальной генерации и понимания. Ключевым подходом является обучение моделей вознаграждения для оптимизации предпочтений. Однако существующие модели часто ограничены конкретными задачами, что снижает их адаптивность для различных визуальных приложений. Мы также утверждаем, что совместное обучение оценке множества задач может создать синергетический эффект, где улучшенное понимание изображений способствует более точной оценке их генерации, а усовершенствованная оценка изображений улучшает анализ видео через более качественный анализ кадров. В связи с этим, в данной статье предлагается UnifiedReward — первая унифицированная модель вознаграждения для оценки мультимодального понимания и генерации, поддерживающая как попарное ранжирование, так и поточечное оценивание, что может быть использовано для согласования предпочтений в моделях компьютерного зрения. В частности, (1) мы сначала разрабатываем UnifiedReward на основе созданного нами крупномасштабного набора данных о человеческих предпочтениях, включающего задачи генерации и понимания изображений и видео. (2) Затем она используется для автоматического построения высококачественных пар данных предпочтений на основе моделей компьютерного зрения, постепенно фильтруя их выходы через попарное ранжирование и поточечный отбор. (3) Наконец, эти данные применяются для согласования предпочтений с помощью метода Direct Preference Optimization (DPO). Экспериментальные результаты показывают, что совместное обучение оценке разнообразных визуальных задач может привести к существенной взаимной пользе, и мы применяем наш подход к задачам понимания и генерации изображений и видео, значительно улучшая производительность в каждой из областей.
English
Recent advances in human preference alignment have significantly enhanced
multimodal generation and understanding. A key approach is training reward
models to guide preference optimization. However, existing models are often
task-specific, limiting their adaptability across diverse visual applications.
We also argue that jointly learning to assess multiple tasks may foster a
synergistic effect, where improved image understanding enhances image
generation assessment, and refined image evaluation benefits video assessment
through better frame analysis. To this end, this paper proposes UnifiedReward,
the first unified reward model for multimodal understanding and generation
assessment, enabling both pairwise ranking and pointwise scoring, which can be
employed for vision model preference alignment. Specifically, (1) we first
develop UnifiedReward on our constructed large-scale human preference dataset,
including both image and video generation/understanding tasks. (2) Then, it is
utilized to automatically construct high-quality preference pair data based on
the vision models, fine-gradually filtering their outputs through pair ranking
and point sifting. (3) Finally, these data are used for their preference
alignment through Direct Preference Optimization (DPO). Experimental results
demonstrate that joint learning to assess diverse visual tasks can lead to
substantial mutual benefits and we apply our pipeline to both image and video
understanding/generation tasks, significantly improving the performance in each
domain.Summary
AI-Generated Summary