T2I-R1:セマンティックレベルとトークンレベルの協調的CoTによる画像生成の強化
T2I-R1: Reinforcing Image Generation with Collaborative Semantic-level and Token-level CoT
May 1, 2025
著者: Dongzhi Jiang, Ziyu Guo, Renrui Zhang, Zhuofan Zong, Hao Li, Le Zhuo, Shilin Yan, Pheng-Ann Heng, Hongsheng Li
cs.AI
要旨
大規模言語モデルの最近の進展により、連鎖的思考(CoT)と強化学習(RL)が性能向上にどのように寄与するかが実証されています。しかし、このような推論戦略を視覚生成領域に適用することは、ほとんど未開拓のままです。本論文では、二段階のCoT推論プロセスを備えたRLを活用した、新しい推論強化型テキストから画像生成モデル「T2I-R1」を提案します。具体的には、生成の異なる段階を強化するために利用可能な2つのレベルのCoTを特定しました:(1)プロンプトの高レベル計画のための意味レベルCoTと、(2)パッチごとの生成中に低レベルのピクセル処理を行うためのトークンレベルCoTです。これら2つのレベルのCoTをより良く調整するために、生成報酬のアンサンブルを備えたBiCoT-GRPOを導入し、同じトレーニングステップ内で両方の生成CoTをシームレスに最適化します。ベースラインモデルであるJanus-Proにこの推論戦略を適用することで、T2I-CompBenchで13%、WISEベンチマークで19%の性能向上を達成し、最先端モデルFLUXを上回る結果を得ました。コードは以下で公開されています:https://github.com/CaraJ7/T2I-R1
English
Recent advancements in large language models have demonstrated how
chain-of-thought (CoT) and reinforcement learning (RL) can improve performance.
However, applying such reasoning strategies to the visual generation domain
remains largely unexplored. In this paper, we present T2I-R1, a novel
reasoning-enhanced text-to-image generation model, powered by RL with a
bi-level CoT reasoning process. Specifically, we identify two levels of CoT
that can be utilized to enhance different stages of generation: (1) the
semantic-level CoT for high-level planning of the prompt and (2) the
token-level CoT for low-level pixel processing during patch-by-patch
generation. To better coordinate these two levels of CoT, we introduce
BiCoT-GRPO with an ensemble of generation rewards, which seamlessly optimizes
both generation CoTs within the same training step. By applying our reasoning
strategies to the baseline model, Janus-Pro, we achieve superior performance
with 13% improvement on T2I-CompBench and 19% improvement on the WISE
benchmark, even surpassing the state-of-the-art model FLUX.1. Code is available
at: https://github.com/CaraJ7/T2I-R1Summary
AI-Generated Summary