Генерация текста в изображение с учетом региона через жесткое привязывание и мягкое уточнение
Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement
November 10, 2024
Авторы: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI
Аннотация
В данной статье мы представляем RAG, метод генерации текста в изображение с учетом региональных описаний для точной композиции макета. Региональное подталкивание, или композиционная генерация, которая обеспечивает детальное пространственное управление, привлекает все больше внимания благодаря своей практичности в реальных приложениях. Однако предыдущие методы либо вводят дополнительные обучаемые модули, что делает их применимыми только к конкретным моделям, либо манипулируют картами оценок в слоях кросс-внимания с использованием масок внимания, что приводит к ограниченной силе управления при увеличении числа регионов. Для преодоления этих ограничений мы разделяем многорегиональную генерацию на две подзадачи: создание отдельного региона (Региональное жесткое связывание), которое гарантирует правильное выполнение регионального подталкивания, и общую детальную доработку (Региональное мягкое усовершенствование) по регионам, которая игнорирует визуальные границы и улучшает соседние взаимодействия. Более того, RAG новаторски делает возможным перерисовку, где пользователи могут изменять конкретные недовольные регионы в последнем поколении, оставляя все остальные регионы без изменений, без использования дополнительных моделей заполнения. Наш подход не требует настройки и применим к другим фреймворкам в качестве улучшения свойства последующего подталкивания. Количественные и качественные эксперименты показывают, что RAG достигает более высокой производительности по сравнению с привязкой атрибутов и отношениями объектов, чем предыдущие методы без настройки.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation
method conditioned on regional descriptions for precise layout composition.
Regional prompting, or compositional generation, which enables fine-grained
spatial control, has gained increasing attention for its practicality in
real-world applications. However, previous methods either introduce additional
trainable modules, thus only applicable to specific models, or manipulate on
score maps within cross-attention layers using attention masks, resulting in
limited control strength when the number of regions increases. To handle these
limitations, we decouple the multi-region generation into two sub-tasks, the
construction of individual region (Regional Hard Binding) that ensures the
regional prompt is properly executed, and the overall detail refinement
(Regional Soft Refinement) over regions that dismiss the visual boundaries and
enhance adjacent interactions. Furthermore, RAG novelly makes repainting
feasible, where users can modify specific unsatisfied regions in the last
generation while keeping all other regions unchanged, without relying on
additional inpainting models. Our approach is tuning-free and applicable to
other frameworks as an enhancement to the prompt following property.
Quantitative and qualitative experiments demonstrate that RAG achieves superior
performance over attribute binding and object relationship than previous
tuning-free methods.Summary
AI-Generated Summary