ChatPaper.aiChatPaper

Gerar Qualquer Coisa em Qualquer Lugar em Qualquer Cena

Generate Anything Anywhere in Any Scene

June 29, 2023
Autores: Yuheng Li, Haotian Liu, Yangming Wen, Yong Jae Lee
cs.AI

Resumo

Modelos de difusão texto-imagem têm atraído considerável interesse devido à sua ampla aplicabilidade em diversos campos. No entanto, desafios persistem na criação de modelos controláveis para geração de objetos personalizados. Neste artigo, primeiro identificamos os problemas de entrelaçamento nos modelos generativos personalizados existentes e, em seguida, propomos uma estratégia de treinamento de aumento de dados simples e eficiente que orienta o modelo de difusão a focar exclusivamente na identidade do objeto. Ao inserir as camadas adaptadoras plug-and-play de um modelo de difusão controlável pré-treinado, nosso modelo obtém a capacidade de controlar a localização e o tamanho de cada objeto personalizado gerado. Durante a inferência, propomos uma técnica de amostragem guiada regionalmente para manter a qualidade e a fidelidade das imagens geradas. Nosso método alcança fidelidade comparável ou superior para objetos personalizados, resultando em um modelo de difusão texto-imagem robusto, versátil e controlável, capaz de gerar imagens realistas e personalizadas. Nossa abordagem demonstra um potencial significativo para várias aplicações, como as de arte, entretenimento e design publicitário.
English
Text-to-image diffusion models have attracted considerable interest due to their wide applicability across diverse fields. However, challenges persist in creating controllable models for personalized object generation. In this paper, we first identify the entanglement issues in existing personalized generative models, and then propose a straightforward and efficient data augmentation training strategy that guides the diffusion model to focus solely on object identity. By inserting the plug-and-play adapter layers from a pre-trained controllable diffusion model, our model obtains the ability to control the location and size of each generated personalized object. During inference, we propose a regionally-guided sampling technique to maintain the quality and fidelity of the generated images. Our method achieves comparable or superior fidelity for personalized objects, yielding a robust, versatile, and controllable text-to-image diffusion model that is capable of generating realistic and personalized images. Our approach demonstrates significant potential for various applications, such as those in art, entertainment, and advertising design.
PDF223February 7, 2026