T2I-R1: Verstärkung der Bildgenerierung durch kollaborative semantische und tokenbasierte CoT
T2I-R1: Reinforcing Image Generation with Collaborative Semantic-level and Token-level CoT
May 1, 2025
Autoren: Dongzhi Jiang, Ziyu Guo, Renrui Zhang, Zhuofan Zong, Hao Li, Le Zhuo, Shilin Yan, Pheng-Ann Heng, Hongsheng Li
cs.AI
Zusammenfassung
Jüngste Fortschritte bei großen Sprachmodellen haben gezeigt, wie Chain-of-Thought (CoT) und Reinforcement Learning (RL) die Leistung verbessern können. Die Anwendung solcher Denkstrategien im Bereich der visuellen Generierung bleibt jedoch weitgehend unerforscht. In diesem Artikel stellen wir T2I-R1 vor, ein neuartiges, durch RL unterstütztes Text-zu-Bild-Generierungsmodell, das durch einen zweistufigen CoT-Denkprozess verbessert wird. Konkret identifizieren wir zwei Ebenen von CoT, die zur Verbesserung verschiedener Generierungsphasen genutzt werden können: (1) den semantischen CoT für die hochrangige Planung des Prompts und (2) den Token-Level CoT für die niedrigrangige Pixelverarbeitung während der patchweisen Generierung. Um diese beiden CoT-Ebenen besser zu koordinieren, führen wir BiCoT-GRPO mit einem Ensemble von Generierungsbelohnungen ein, das beide Generierungs-CoTs nahtlos innerhalb desselben Trainingsschritts optimiert. Durch die Anwendung unserer Denkstrategien auf das Basismodell Janus-Pro erzielen wir eine überlegene Leistung mit einer Verbesserung von 13 % auf T2I-CompBench und 19 % auf dem WISE-Benchmark, wobei wir sogar das state-of-the-art Modell FLUX übertreffen. Der Code ist verfügbar unter: https://github.com/CaraJ7/T2I-R1.
English
Recent advancements in large language models have demonstrated how
chain-of-thought (CoT) and reinforcement learning (RL) can improve performance.
However, applying such reasoning strategies to the visual generation domain
remains largely unexplored. In this paper, we present T2I-R1, a novel
reasoning-enhanced text-to-image generation model, powered by RL with a
bi-level CoT reasoning process. Specifically, we identify two levels of CoT
that can be utilized to enhance different stages of generation: (1) the
semantic-level CoT for high-level planning of the prompt and (2) the
token-level CoT for low-level pixel processing during patch-by-patch
generation. To better coordinate these two levels of CoT, we introduce
BiCoT-GRPO with an ensemble of generation rewards, which seamlessly optimizes
both generation CoTs within the same training step. By applying our reasoning
strategies to the baseline model, Janus-Pro, we achieve superior performance
with 13% improvement on T2I-CompBench and 19% improvement on the WISE
benchmark, even surpassing the state-of-the-art model FLUX.1. Code is available
at: https://github.com/CaraJ7/T2I-R1Summary
AI-Generated Summary