ChatPaper.aiChatPaper

CustomNet: Настройка объектов с нулевым обучением и переменными ракурсами в моделях диффузии для генерации изображений из текста

CustomNet: Zero-shot Object Customization with Variable-Viewpoints in Text-to-Image Diffusion Models

October 30, 2023
Авторы: Ziyang Yuan, Mingdeng Cao, Xintao Wang, Zhongang Qi, Chun Yuan, Ying Shan
cs.AI

Аннотация

Включение пользовательского объекта в процесс генерации изображений представляет собой привлекательную функцию в генерации изображений по текстовому описанию. Однако существующие методы, основанные на оптимизации и кодировании, сталкиваются с такими недостатками, как длительная оптимизация, недостаточное сохранение идентичности и распространённый эффект "копирования-вставки". Чтобы преодолеть эти ограничения, мы представляем CustomNet — новый подход к настройке объектов, который явно интегрирует возможности синтеза новых 3D-видов в процесс кастомизации объектов. Эта интеграция позволяет регулировать пространственные отношения и точки обзора, создавая разнообразные результаты при эффективном сохранении идентичности объекта. Кроме того, мы предлагаем тщательно продуманные решения для управления расположением и гибкого управления фоном с помощью текстовых описаний или определённых пользовательских изображений, преодолевая ограничения существующих методов синтеза новых 3D-видов. Мы также используем конвейер построения набора данных, который лучше справляется с объектами из реального мира и сложными фонами. Благодаря этим решениям наш метод позволяет осуществлять настройку объектов в режиме zero-shot без оптимизации на этапе тестирования, обеспечивая одновременный контроль над точками обзора, расположением и фоном. В результате CustomNet гарантирует улучшенное сохранение идентичности и создаёт разнообразные, гармоничные результаты.
English
Incorporating a customized object into image generation presents an attractive feature in text-to-image generation. However, existing optimization-based and encoder-based methods are hindered by drawbacks such as time-consuming optimization, insufficient identity preservation, and a prevalent copy-pasting effect. To overcome these limitations, we introduce CustomNet, a novel object customization approach that explicitly incorporates 3D novel view synthesis capabilities into the object customization process. This integration facilitates the adjustment of spatial position relationships and viewpoints, yielding diverse outputs while effectively preserving object identity. Moreover, we introduce delicate designs to enable location control and flexible background control through textual descriptions or specific user-defined images, overcoming the limitations of existing 3D novel view synthesis methods. We further leverage a dataset construction pipeline that can better handle real-world objects and complex backgrounds. Equipped with these designs, our method facilitates zero-shot object customization without test-time optimization, offering simultaneous control over the viewpoints, location, and background. As a result, our CustomNet ensures enhanced identity preservation and generates diverse, harmonious outputs.
PDF103December 15, 2024