ChatPaper.aiChatPaper

GoT-R1: Раскрытие способности к рассуждению MLLM для визуальной генерации с использованием обучения с подкреплением

GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

May 22, 2025
Авторы: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI

Аннотация

Модели визуальной генерации достигли значительных успехов в создании реалистичных изображений на основе текстовых запросов, однако сталкиваются с трудностями при обработке сложных запросов, требующих указания нескольких объектов с точными пространственными отношениями и атрибутами. Эффективное выполнение таких запросов требует явного анализа семантического содержания и пространственной компоновки. Мы представляем GoT-R1 — фреймворк, который применяет обучение с подкреплением для улучшения семантико-пространственного анализа в визуальной генерации. Развивая подход Generation Chain-of-Thought, GoT-R1 позволяет моделям автономно находить эффективные стратегии анализа, выходящие за рамки предопределенных шаблонов, благодаря тщательно разработанному обучению с подкреплением. Для достижения этого мы предлагаем двухэтапную многомерную систему вознаграждений, которая использует MLLM для оценки как процесса анализа, так и конечного результата, обеспечивая эффективный контроль на всех этапах генерации. Система вознаграждений оценивает семантическое соответствие, пространственную точность и визуальное качество в едином подходе. Экспериментальные результаты демонстрируют значительные улучшения на бенчмарке T2I-CompBench, особенно в задачах композиции, требующих точных пространственных отношений и связывания атрибутов. GoT-R1 продвигает современные технологии генерации изображений, успешно перенося сложные аналитические способности в область визуальной генерации. Для содействия будущим исследованиям мы публикуем наш код и предобученные модели по адресу https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic images from text prompts, yet struggle with complex prompts that specify multiple objects with precise spatial relationships and attributes. Effective handling of such prompts requires explicit reasoning about the semantic content and spatial layout. We present GoT-R1, a framework that applies reinforcement learning to enhance semantic-spatial reasoning in visual generation. Building upon the Generation Chain-of-Thought approach, GoT-R1 enables models to autonomously discover effective reasoning strategies beyond predefined templates through carefully designed reinforcement learning. To achieve this, we propose a dual-stage multi-dimensional reward framework that leverages MLLMs to evaluate both the reasoning process and final output, enabling effective supervision across the entire generation pipeline. The reward system assesses semantic alignment, spatial accuracy, and visual quality in a unified approach. Experimental results demonstrate significant improvements on T2I-CompBench benchmark, particularly in compositional tasks involving precise spatial relationships and attribute binding. GoT-R1 advances the state-of-the-art in image generation by successfully transferring sophisticated reasoning capabilities to the visual generation domain. To facilitate future research, we make our code and pretrained models publicly available at https://github.com/gogoduan/GoT-R1.

Summary

AI-Generated Summary

PDF232May 23, 2025