ChatPaper.aiChatPaper

TokenVerse: Personalização Versátil de Múltiplos Conceitos no Espaço de Modulação de Tokens

TokenVerse: Versatile Multi-concept Personalization in Token Modulation Space

January 21, 2025
Autores: Daniel Garibi, Shahar Yadin, Roni Paiss, Omer Tov, Shiran Zada, Ariel Ephrat, Tomer Michaeli, Inbar Mosseri, Tali Dekel
cs.AI

Resumo

Apresentamos o TokenVerse - um método para personalização multi-conceitual, aproveitando um modelo de difusão pré-treinado de texto para imagem. Nosso framework pode separar elementos visuais e atributos complexos a partir de apenas uma imagem, permitindo a geração fácil e flexível de combinações de conceitos extraídos de múltiplas imagens. Ao contrário de trabalhos existentes, o TokenVerse pode lidar com múltiplas imagens contendo múltiplos conceitos cada, e suporta uma ampla gama de conceitos, incluindo objetos, acessórios, materiais, pose e iluminação. Nosso trabalho explora um modelo de texto para imagem baseado em DiT, no qual o texto de entrada afeta a geração por meio de atenção e modulação (deslocamento e escala). Observamos que o espaço de modulação é semântico e possibilita controle localizado sobre conceitos complexos. Com base nessa percepção, desenvolvemos um framework baseado em otimização que, ao receber como entrada uma imagem e uma descrição de texto, encontra para cada palavra uma direção distinta no espaço de modulação. Essas direções podem então ser usadas para gerar novas imagens que combinam os conceitos aprendidos em uma configuração desejada. Demonstramos a eficácia do TokenVerse em cenários desafiadores de personalização, e destacamos suas vantagens sobre métodos existentes. Página do projeto em https://token-verse.github.io/
English
We present TokenVerse -- a method for multi-concept personalization, leveraging a pre-trained text-to-image diffusion model. Our framework can disentangle complex visual elements and attributes from as little as a single image, while enabling seamless plug-and-play generation of combinations of concepts extracted from multiple images. As opposed to existing works, TokenVerse can handle multiple images with multiple concepts each, and supports a wide-range of concepts, including objects, accessories, materials, pose, and lighting. Our work exploits a DiT-based text-to-image model, in which the input text affects the generation through both attention and modulation (shift and scale). We observe that the modulation space is semantic and enables localized control over complex concepts. Building on this insight, we devise an optimization-based framework that takes as input an image and a text description, and finds for each word a distinct direction in the modulation space. These directions can then be used to generate new images that combine the learned concepts in a desired configuration. We demonstrate the effectiveness of TokenVerse in challenging personalization settings, and showcase its advantages over existing methods. project's webpage in https://token-verse.github.io/

Summary

AI-Generated Summary

PDF482January 22, 2025