ChatPaper.aiChatPaper

GoT-R1: Freisetzung der Schlussfolgerungsfähigkeit von MLLM für die visuelle Generierung mit Reinforcement Learning

GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

May 22, 2025
Autoren: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI

Zusammenfassung

Visuelle Generationsmodelle haben bemerkenswerte Fortschritte bei der Erstellung realistischer Bilder aus Textbeschreibungen gemacht, kämpfen jedoch mit komplexen Eingaben, die mehrere Objekte mit präzisen räumlichen Beziehungen und Attributen spezifizieren. Die effektive Handhabung solcher Eingaben erfordert explizites Schlussfolgern über den semantischen Inhalt und die räumliche Anordnung. Wir stellen GoT-R1 vor, ein Framework, das Reinforcement Learning anwendet, um das semantisch-räumliche Schlussfolgern in der visuellen Generierung zu verbessern. Aufbauend auf dem Generation Chain-of-Thought-Ansatz ermöglicht GoT-R1 Modellen, effektive Schlussfolgerungsstrategien jenseits vordefinierter Vorlagen durch sorgfältig gestaltetes Reinforcement Learning autonom zu entdecken. Um dies zu erreichen, schlagen wir ein zweistufiges, mehrdimensionales Belohnungssystem vor, das MLLMs nutzt, um sowohl den Schlussfolgerungsprozess als auch das Endergebnis zu bewerten und so eine effektive Überwachung über die gesamte Generationspipeline hinweg zu ermöglichen. Das Belohnungssystem bewertet semantische Ausrichtung, räumliche Genauigkeit und visuelle Qualität in einem einheitlichen Ansatz. Experimentelle Ergebnisse zeigen signifikante Verbesserungen im T2I-CompBench-Benchmark, insbesondere bei kompositionellen Aufgaben, die präzise räumliche Beziehungen und Attributbindung beinhalten. GoT-R1 setzt neue Maßstäbe in der Bildgeneration, indem es erfolgreich anspruchsvolle Schlussfolgerungsfähigkeiten in den Bereich der visuellen Generierung überträgt. Um zukünftige Forschung zu erleichtern, stellen wir unseren Code und vortrainierte Modelle öffentlich unter https://github.com/gogoduan/GoT-R1 zur Verfügung.
English
Visual generation models have made remarkable progress in creating realistic images from text prompts, yet struggle with complex prompts that specify multiple objects with precise spatial relationships and attributes. Effective handling of such prompts requires explicit reasoning about the semantic content and spatial layout. We present GoT-R1, a framework that applies reinforcement learning to enhance semantic-spatial reasoning in visual generation. Building upon the Generation Chain-of-Thought approach, GoT-R1 enables models to autonomously discover effective reasoning strategies beyond predefined templates through carefully designed reinforcement learning. To achieve this, we propose a dual-stage multi-dimensional reward framework that leverages MLLMs to evaluate both the reasoning process and final output, enabling effective supervision across the entire generation pipeline. The reward system assesses semantic alignment, spatial accuracy, and visual quality in a unified approach. Experimental results demonstrate significant improvements on T2I-CompBench benchmark, particularly in compositional tasks involving precise spatial relationships and attribute binding. GoT-R1 advances the state-of-the-art in image generation by successfully transferring sophisticated reasoning capabilities to the visual generation domain. To facilitate future research, we make our code and pretrained models publicly available at https://github.com/gogoduan/GoT-R1.

Summary

AI-Generated Summary

PDF232May 23, 2025