ChatPaper.aiChatPaper

Generación de texto a imagen consciente de la región a través de unión rígida y refinamiento suave.

Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement

November 10, 2024
Autores: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI

Resumen

En este documento, presentamos RAG, un método de Generación de texto a imagen Consciente de la región condicionado a descripciones regionales para una composición de diseño precisa. La solicitud regional, o generación composicional, que permite un control espacial detallado, ha ganado cada vez más atención por su practicidad en aplicaciones del mundo real. Sin embargo, los métodos anteriores introducen módulos entrenables adicionales, por lo tanto, solo son aplicables a modelos específicos, o manipulan mapas de puntuación dentro de capas de atención cruzada utilizando máscaras de atención, lo que resulta en una fuerza de control limitada cuando el número de regiones aumenta. Para manejar estas limitaciones, desacoplamos la generación multi-región en dos sub-tareas, la construcción de regiones individuales (Vinculación Dura Regional) que garantiza que la solicitud regional se ejecute correctamente, y el refinamiento general de detalles (Refinamiento Suave Regional) sobre regiones que desestiman los límites visuales y mejoran las interacciones adyacentes. Además, RAG hace posible la repintura de manera novedosa, donde los usuarios pueden modificar regiones específicas insatisfactorias en la última generación manteniendo todas las demás regiones sin cambios, sin depender de modelos de rellenado adicionales. Nuestro enfoque no requiere ajustes y es aplicable a otros marcos como una mejora a la propiedad de seguimiento de solicitud. Experimentos cuantitativos y cualitativos demuestran que RAG logra un rendimiento superior en la vinculación de atributos y relaciones de objetos que los métodos anteriores sin ajuste.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation method conditioned on regional descriptions for precise layout composition. Regional prompting, or compositional generation, which enables fine-grained spatial control, has gained increasing attention for its practicality in real-world applications. However, previous methods either introduce additional trainable modules, thus only applicable to specific models, or manipulate on score maps within cross-attention layers using attention masks, resulting in limited control strength when the number of regions increases. To handle these limitations, we decouple the multi-region generation into two sub-tasks, the construction of individual region (Regional Hard Binding) that ensures the regional prompt is properly executed, and the overall detail refinement (Regional Soft Refinement) over regions that dismiss the visual boundaries and enhance adjacent interactions. Furthermore, RAG novelly makes repainting feasible, where users can modify specific unsatisfied regions in the last generation while keeping all other regions unchanged, without relying on additional inpainting models. Our approach is tuning-free and applicable to other frameworks as an enhancement to the prompt following property. Quantitative and qualitative experiments demonstrate that RAG achieves superior performance over attribute binding and object relationship than previous tuning-free methods.

Summary

AI-Generated Summary

PDF376November 18, 2024