ChatPaper.aiChatPaper

GoT-R1: Liberando la Capacidad de Razonamiento de los MLLM para la Generación Visual con Aprendizaje por Refuerzo

GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

May 22, 2025
Autores: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI

Resumen

Los modelos de generación visual han logrado avances notables en la creación de imágenes realistas a partir de indicaciones de texto, pero aún enfrentan dificultades con indicaciones complejas que especifican múltiples objetos con relaciones espaciales y atributos precisos. El manejo efectivo de estas indicaciones requiere un razonamiento explícito sobre el contenido semántico y la disposición espacial. Presentamos GoT-R1, un marco que aplica aprendizaje por refuerzo para mejorar el razonamiento semántico-espacial en la generación visual. Basándose en el enfoque de Cadena de Pensamiento Generativo, GoT-R1 permite que los modelos descubran de manera autónoma estrategias de razonamiento efectivas más allá de plantillas predefinidas, mediante un aprendizaje por refuerzo cuidadosamente diseñado. Para lograrlo, proponemos un marco de recompensas multidimensional de dos etapas que aprovecha los MLLM para evaluar tanto el proceso de razonamiento como el resultado final, permitiendo una supervisión efectiva en toda la pipeline de generación. El sistema de recompensas evalúa la alineación semántica, la precisión espacial y la calidad visual de manera unificada. Los resultados experimentales demuestran mejoras significativas en el benchmark T2I-CompBench, particularmente en tareas composicionales que involucran relaciones espaciales precisas y vinculación de atributos. GoT-R1 avanza el estado del arte en generación de imágenes al transferir con éxito capacidades de razonamiento sofisticadas al dominio de la generación visual. Para facilitar investigaciones futuras, hemos hecho público nuestro código y modelos preentrenados en https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic images from text prompts, yet struggle with complex prompts that specify multiple objects with precise spatial relationships and attributes. Effective handling of such prompts requires explicit reasoning about the semantic content and spatial layout. We present GoT-R1, a framework that applies reinforcement learning to enhance semantic-spatial reasoning in visual generation. Building upon the Generation Chain-of-Thought approach, GoT-R1 enables models to autonomously discover effective reasoning strategies beyond predefined templates through carefully designed reinforcement learning. To achieve this, we propose a dual-stage multi-dimensional reward framework that leverages MLLMs to evaluate both the reasoning process and final output, enabling effective supervision across the entire generation pipeline. The reward system assesses semantic alignment, spatial accuracy, and visual quality in a unified approach. Experimental results demonstrate significant improvements on T2I-CompBench benchmark, particularly in compositional tasks involving precise spatial relationships and attribute binding. GoT-R1 advances the state-of-the-art in image generation by successfully transferring sophisticated reasoning capabilities to the visual generation domain. To facilitate future research, we make our code and pretrained models publicly available at https://github.com/gogoduan/GoT-R1.

Summary

AI-Generated Summary

PDF232May 23, 2025