ChatPaper.aiChatPaper

ハードバインディングとソフトリファインメントを介した領域認識テキストから画像生成

Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement

November 10, 2024
著者: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI

要旨

本論文では、RAG(Regional-Aware text-to-image Generation)を提案し、地域記述に基づく正確なレイアウト構成のための手法を紹介します。細かい空間制御を可能にする地域プロンプティング、または構成生成は、実世界の応用において実用的であるため、注目を集めています。しかしながら、従来の手法は、追加の学習可能なモジュールを導入するか、または注意マスクを使用してクロスアテンション層内のスコアマップを操作することで、制御強度が制限されるため、特定のモデルにのみ適用可能でした。これらの制限に対処するために、我々はマルチリージョン生成を2つのサブタスクに分割しました。すなわち、個々のリージョンの構築(Regional Hard Binding)と全体的な詳細の微調整(Regional Soft Refinement)です。Regional Hard Bindingは、地域プロンプトが適切に実行されることを保証し、Regional Soft Refinementは、視覚的境界を無視し隣接する相互作用を強化することで、リージョン全体に対する詳細な調整を行います。さらに、RAGは再塗装を可能にし、ユーザーが最後の生成物の特定の不満足な領域を変更する際に、他の全ての領域を変更せずに維持できるようにします。この際、追加のインペインティングモデルに依存する必要はありません。我々のアプローチはチューニング不要であり、他のフレームワークに適用可能であり、プロンプトに従う性質の強化として機能します。定量的および定性的な実験により、RAGが従来のチューニング不要な手法よりも属性のバインディングやオブジェクトの関係において優れた性能を達成することが示されています。
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation method conditioned on regional descriptions for precise layout composition. Regional prompting, or compositional generation, which enables fine-grained spatial control, has gained increasing attention for its practicality in real-world applications. However, previous methods either introduce additional trainable modules, thus only applicable to specific models, or manipulate on score maps within cross-attention layers using attention masks, resulting in limited control strength when the number of regions increases. To handle these limitations, we decouple the multi-region generation into two sub-tasks, the construction of individual region (Regional Hard Binding) that ensures the regional prompt is properly executed, and the overall detail refinement (Regional Soft Refinement) over regions that dismiss the visual boundaries and enhance adjacent interactions. Furthermore, RAG novelly makes repainting feasible, where users can modify specific unsatisfied regions in the last generation while keeping all other regions unchanged, without relying on additional inpainting models. Our approach is tuning-free and applicable to other frameworks as an enhancement to the prompt following property. Quantitative and qualitative experiments demonstrate that RAG achieves superior performance over attribute binding and object relationship than previous tuning-free methods.

Summary

AI-Generated Summary

PDF376November 18, 2024