GoT-R1: Het Vrijmaken van Redeneervermogen van MLLM voor Visuele Generatie met Versterkend Leren
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
May 22, 2025
Auteurs: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI
Samenvatting
Visuele generatiemodellen hebben opmerkelijke vooruitgang geboekt in het creëren van realistische afbeeldingen vanuit tekstprompts, maar worstelen nog steeds met complexe prompts die meerdere objecten specificeren met precieze ruimtelijke relaties en attributen. Het effectief verwerken van dergelijke prompts vereist expliciete redenering over de semantische inhoud en ruimtelijke lay-out. Wij presenteren GoT-R1, een raamwerk dat reinforcement learning toepast om semantisch-ruimtelijke redenering in visuele generatie te verbeteren. Gebaseerd op de Generation Chain-of-Thought-benadering, stelt GoT-R1 modellen in staat om autonoom effectieve redeneerstrategieën te ontdekken die verder gaan dan vooraf gedefinieerde sjablonen, door middel van zorgvuldig ontworpen reinforcement learning. Om dit te bereiken, stellen we een dual-stage multidimensionaal beloningsraamwerk voor dat MLLM's benut om zowel het redeneerproces als de uiteindelijke output te evalueren, waardoor effectieve supervisie over de gehele generatiepijplijn mogelijk wordt. Het beloningssysteem beoordeelt semantische uitlijning, ruimtelijke nauwkeurigheid en visuele kwaliteit in een geïntegreerde aanpak. Experimentele resultaten tonen significante verbeteringen op de T2I-CompBench-benchmark, met name in compositietaken die precieze ruimtelijke relaties en attribuutbinding betreffen. GoT-R1 zet de standaard voor beeldgeneratie verder door geavanceerde redeneervaardigheden succesvol over te brengen naar het domein van visuele generatie. Om toekomstig onderzoek te faciliteren, maken we onze code en vooraf getrainde modellen publiekelijk beschikbaar op https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic
images from text prompts, yet struggle with complex prompts that specify
multiple objects with precise spatial relationships and attributes. Effective
handling of such prompts requires explicit reasoning about the semantic content
and spatial layout. We present GoT-R1, a framework that applies reinforcement
learning to enhance semantic-spatial reasoning in visual generation. Building
upon the Generation Chain-of-Thought approach, GoT-R1 enables models to
autonomously discover effective reasoning strategies beyond predefined
templates through carefully designed reinforcement learning. To achieve this,
we propose a dual-stage multi-dimensional reward framework that leverages MLLMs
to evaluate both the reasoning process and final output, enabling effective
supervision across the entire generation pipeline. The reward system assesses
semantic alignment, spatial accuracy, and visual quality in a unified approach.
Experimental results demonstrate significant improvements on T2I-CompBench
benchmark, particularly in compositional tasks involving precise spatial
relationships and attribute binding. GoT-R1 advances the state-of-the-art in
image generation by successfully transferring sophisticated reasoning
capabilities to the visual generation domain. To facilitate future research, we
make our code and pretrained models publicly available at
https://github.com/gogoduan/GoT-R1.