GoT-R1: Раскрытие способности к рассуждению MLLM для визуальной генерации с использованием обучения с подкреплением
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
May 22, 2025
Авторы: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI
Аннотация
Модели визуальной генерации достигли значительных успехов в создании реалистичных изображений на основе текстовых запросов, однако сталкиваются с трудностями при обработке сложных запросов, требующих указания нескольких объектов с точными пространственными отношениями и атрибутами. Эффективное выполнение таких запросов требует явного анализа семантического содержания и пространственной компоновки. Мы представляем GoT-R1 — фреймворк, который применяет обучение с подкреплением для улучшения семантико-пространственного анализа в визуальной генерации. Развивая подход Generation Chain-of-Thought, GoT-R1 позволяет моделям автономно находить эффективные стратегии анализа, выходящие за рамки предопределенных шаблонов, благодаря тщательно разработанному обучению с подкреплением. Для достижения этого мы предлагаем двухэтапную многомерную систему вознаграждений, которая использует MLLM для оценки как процесса анализа, так и конечного результата, обеспечивая эффективный контроль на всех этапах генерации. Система вознаграждений оценивает семантическое соответствие, пространственную точность и визуальное качество в едином подходе. Экспериментальные результаты демонстрируют значительные улучшения на бенчмарке T2I-CompBench, особенно в задачах композиции, требующих точных пространственных отношений и связывания атрибутов. GoT-R1 продвигает современные технологии генерации изображений, успешно перенося сложные аналитические способности в область визуальной генерации. Для содействия будущим исследованиям мы публикуем наш код и предобученные модели по адресу https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic
images from text prompts, yet struggle with complex prompts that specify
multiple objects with precise spatial relationships and attributes. Effective
handling of such prompts requires explicit reasoning about the semantic content
and spatial layout. We present GoT-R1, a framework that applies reinforcement
learning to enhance semantic-spatial reasoning in visual generation. Building
upon the Generation Chain-of-Thought approach, GoT-R1 enables models to
autonomously discover effective reasoning strategies beyond predefined
templates through carefully designed reinforcement learning. To achieve this,
we propose a dual-stage multi-dimensional reward framework that leverages MLLMs
to evaluate both the reasoning process and final output, enabling effective
supervision across the entire generation pipeline. The reward system assesses
semantic alignment, spatial accuracy, and visual quality in a unified approach.
Experimental results demonstrate significant improvements on T2I-CompBench
benchmark, particularly in compositional tasks involving precise spatial
relationships and attribute binding. GoT-R1 advances the state-of-the-art in
image generation by successfully transferring sophisticated reasoning
capabilities to the visual generation domain. To facilitate future research, we
make our code and pretrained models publicly available at
https://github.com/gogoduan/GoT-R1.Summary
AI-Generated Summary