ChatPaper.aiChatPaper

Geração de Texto-para-Imagem Consciente da Região por Meio de Vinculação Rígida e Refinamento Suave

Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement

November 10, 2024
Autores: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI

Resumo

Neste artigo, apresentamos o RAG, um método de Geração de Texto-para-Imagem Consciente da Região condicionado a descrições regionais para composição precisa do layout. A solicitação regional, ou geração composicional, que possibilita controle espacial detalhado, tem recebido cada vez mais atenção por sua praticidade em aplicações do mundo real. No entanto, métodos anteriores ou introduzem módulos treináveis adicionais, sendo assim aplicáveis apenas a modelos específicos, ou manipulam mapas de pontuação dentro de camadas de atenção cruzada usando máscaras de atenção, resultando em força de controle limitada quando o número de regiões aumenta. Para lidar com essas limitações, desmembramos a geração multi-região em duas sub-tarefas, a construção da região individual (Vínculo Rígido Regional) que garante a execução adequada da solicitação regional, e o refinamento geral de detalhes (Refinamento Suave Regional) sobre as regiões que ignoram os limites visuais e aprimoram interações adjacentes. Além disso, o RAG torna possível a repintura, onde os usuários podem modificar regiões específicas insatisfatórias na última geração mantendo todas as outras regiões inalteradas, sem depender de modelos adicionais de inpainting. Nossa abordagem é livre de ajustes e aplicável a outros frameworks como um aprimoramento à propriedade de seguir a solicitação. Experimentos quantitativos e qualitativos demonstram que o RAG alcança desempenho superior em relação ao vínculo de atributos e relacionamento de objetos do que métodos anteriores sem ajustes.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation method conditioned on regional descriptions for precise layout composition. Regional prompting, or compositional generation, which enables fine-grained spatial control, has gained increasing attention for its practicality in real-world applications. However, previous methods either introduce additional trainable modules, thus only applicable to specific models, or manipulate on score maps within cross-attention layers using attention masks, resulting in limited control strength when the number of regions increases. To handle these limitations, we decouple the multi-region generation into two sub-tasks, the construction of individual region (Regional Hard Binding) that ensures the regional prompt is properly executed, and the overall detail refinement (Regional Soft Refinement) over regions that dismiss the visual boundaries and enhance adjacent interactions. Furthermore, RAG novelly makes repainting feasible, where users can modify specific unsatisfied regions in the last generation while keeping all other regions unchanged, without relying on additional inpainting models. Our approach is tuning-free and applicable to other frameworks as an enhancement to the prompt following property. Quantitative and qualitative experiments demonstrate that RAG achieves superior performance over attribute binding and object relationship than previous tuning-free methods.

Summary

AI-Generated Summary

PDF376November 18, 2024