ChatPaper.aiChatPaper

Генерация текста в изображение с учетом региона через жесткое привязывание и мягкое уточнение

Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement

November 10, 2024
Авторы: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI

Аннотация

В данной статье мы представляем RAG, метод генерации текста в изображение с учетом региональных описаний для точной композиции макета. Региональное подталкивание, или композиционная генерация, которая обеспечивает детальное пространственное управление, привлекает все больше внимания благодаря своей практичности в реальных приложениях. Однако предыдущие методы либо вводят дополнительные обучаемые модули, что делает их применимыми только к конкретным моделям, либо манипулируют картами оценок в слоях кросс-внимания с использованием масок внимания, что приводит к ограниченной силе управления при увеличении числа регионов. Для преодоления этих ограничений мы разделяем многорегиональную генерацию на две подзадачи: создание отдельного региона (Региональное жесткое связывание), которое гарантирует правильное выполнение регионального подталкивания, и общую детальную доработку (Региональное мягкое усовершенствование) по регионам, которая игнорирует визуальные границы и улучшает соседние взаимодействия. Более того, RAG новаторски делает возможным перерисовку, где пользователи могут изменять конкретные недовольные регионы в последнем поколении, оставляя все остальные регионы без изменений, без использования дополнительных моделей заполнения. Наш подход не требует настройки и применим к другим фреймворкам в качестве улучшения свойства последующего подталкивания. Количественные и качественные эксперименты показывают, что RAG достигает более высокой производительности по сравнению с привязкой атрибутов и отношениями объектов, чем предыдущие методы без настройки.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation method conditioned on regional descriptions for precise layout composition. Regional prompting, or compositional generation, which enables fine-grained spatial control, has gained increasing attention for its practicality in real-world applications. However, previous methods either introduce additional trainable modules, thus only applicable to specific models, or manipulate on score maps within cross-attention layers using attention masks, resulting in limited control strength when the number of regions increases. To handle these limitations, we decouple the multi-region generation into two sub-tasks, the construction of individual region (Regional Hard Binding) that ensures the regional prompt is properly executed, and the overall detail refinement (Regional Soft Refinement) over regions that dismiss the visual boundaries and enhance adjacent interactions. Furthermore, RAG novelly makes repainting feasible, where users can modify specific unsatisfied regions in the last generation while keeping all other regions unchanged, without relying on additional inpainting models. Our approach is tuning-free and applicable to other frameworks as an enhancement to the prompt following property. Quantitative and qualitative experiments demonstrate that RAG achieves superior performance over attribute binding and object relationship than previous tuning-free methods.

Summary

AI-Generated Summary

PDF376November 18, 2024