T2I-R1: Rafforzare la Generazione di Immagini con una Collaborazione a Livello Semantico e a Livello di Token CoT
T2I-R1: Reinforcing Image Generation with Collaborative Semantic-level and Token-level CoT
May 1, 2025
Autori: Dongzhi Jiang, Ziyu Guo, Renrui Zhang, Zhuofan Zong, Hao Li, Le Zhuo, Shilin Yan, Pheng-Ann Heng, Hongsheng Li
cs.AI
Abstract
I recenti progressi nei modelli linguistici di grandi dimensioni hanno dimostrato come il ragionamento a catena (CoT) e l'apprendimento per rinforzo (RL) possano migliorare le prestazioni. Tuttavia, l'applicazione di tali strategie di ragionamento al dominio della generazione visiva rimane in gran parte inesplorata. In questo articolo, presentiamo T2I-R1, un innovativo modello di generazione testo-immagine potenziato dal ragionamento, alimentato da RL con un processo di ragionamento CoT a due livelli. Nello specifico, identifichiamo due livelli di CoT che possono essere utilizzati per migliorare diverse fasi della generazione: (1) il CoT a livello semantico per la pianificazione di alto livello del prompt e (2) il CoT a livello di token per l'elaborazione di basso livello dei pixel durante la generazione patch-by-patch. Per coordinare meglio questi due livelli di CoT, introduciamo BiCoT-GRPO con un insieme di ricompense di generazione, che ottimizza senza soluzione di continuità entrambi i CoT di generazione all'interno dello stesso passo di addestramento. Applicando le nostre strategie di ragionamento al modello di base, Janus-Pro, otteniamo prestazioni superiori con un miglioramento del 13% su T2I-CompBench e del 19% sul benchmark WISE, superando persino il modello all'avanguardia FLUX.1. Il codice è disponibile all'indirizzo: https://github.com/CaraJ7/T2I-R1
English
Recent advancements in large language models have demonstrated how
chain-of-thought (CoT) and reinforcement learning (RL) can improve performance.
However, applying such reasoning strategies to the visual generation domain
remains largely unexplored. In this paper, we present T2I-R1, a novel
reasoning-enhanced text-to-image generation model, powered by RL with a
bi-level CoT reasoning process. Specifically, we identify two levels of CoT
that can be utilized to enhance different stages of generation: (1) the
semantic-level CoT for high-level planning of the prompt and (2) the
token-level CoT for low-level pixel processing during patch-by-patch
generation. To better coordinate these two levels of CoT, we introduce
BiCoT-GRPO with an ensemble of generation rewards, which seamlessly optimizes
both generation CoTs within the same training step. By applying our reasoning
strategies to the baseline model, Janus-Pro, we achieve superior performance
with 13% improvement on T2I-CompBench and 19% improvement on the WISE
benchmark, even surpassing the state-of-the-art model FLUX.1. Code is available
at: https://github.com/CaraJ7/T2I-R1