ChatPaper.aiChatPaper

SwapAnything: Abilitazione dello Scambio Arbitrario di Oggetti nell'Editing Visivo Personalizzato

SwapAnything: Enabling Arbitrary Object Swapping in Personalized Visual Editing

April 8, 2024
Autori: Jing Gu, Yilin Wang, Nanxuan Zhao, Wei Xiong, Qing Liu, Zhifei Zhang, He Zhang, Jianming Zhang, HyunJoon Jung, Xin Eric Wang
cs.AI

Abstract

L'editing efficace di contenuti personali svolge un ruolo fondamentale nel consentire agli individui di esprimere la propria creatività, intrecciando narrazioni avvincenti all'interno delle loro storie visive e migliorando la qualità complessiva e l'impatto dei loro contenuti visivi. Pertanto, in questo lavoro, presentiamo SwapAnything, un nuovo framework in grado di sostituire qualsiasi oggetto in un'immagine con concetti personalizzati forniti come riferimento, mantenendo invariato il contesto. Rispetto ai metodi esistenti per la sostituzione personalizzata di soggetti, SwapAnything offre tre vantaggi unici: (1) controllo preciso di oggetti e parti arbitrarie anziché del soggetto principale, (2) conservazione più fedele dei pixel del contesto, (3) migliore adattamento del concetto personalizzato all'immagine. In primo luogo, proponiamo lo scambio variabile mirato per applicare il controllo regionale sulle mappe di feature latenti e scambiare variabili mascherate per una conservazione fedele del contesto e uno scambio iniziale del concetto semantico. Successivamente, introduciamo l'adattamento dell'aspetto, per integrare in modo fluido il concetto semantico nell'immagine originale in termini di posizione, forma, stile e contenuto durante il processo di generazione dell'immagine. Risultati estesi su valutazioni sia umane che automatiche dimostrano miglioramenti significativi del nostro approccio rispetto ai metodi di base per lo scambio personalizzato. Inoltre, SwapAnything mostra le sue capacità di scambio precise e fedeli in compiti di scambio di singoli oggetti, oggetti multipli, parti di oggetti e scambio cross-dominio. SwapAnything ottiene anche ottime prestazioni nello scambio basato su testo e in compiti oltre lo scambio, come l'inserimento di oggetti.
English
Effective editing of personal content holds a pivotal role in enabling individuals to express their creativity, weaving captivating narratives within their visual stories, and elevate the overall quality and impact of their visual content. Therefore, in this work, we introduce SwapAnything, a novel framework that can swap any objects in an image with personalized concepts given by the reference, while keeping the context unchanged. Compared with existing methods for personalized subject swapping, SwapAnything has three unique advantages: (1) precise control of arbitrary objects and parts rather than the main subject, (2) more faithful preservation of context pixels, (3) better adaptation of the personalized concept to the image. First, we propose targeted variable swapping to apply region control over latent feature maps and swap masked variables for faithful context preservation and initial semantic concept swapping. Then, we introduce appearance adaptation, to seamlessly adapt the semantic concept into the original image in terms of target location, shape, style, and content during the image generation process. Extensive results on both human and automatic evaluation demonstrate significant improvements of our approach over baseline methods on personalized swapping. Furthermore, SwapAnything shows its precise and faithful swapping abilities across single object, multiple objects, partial object, and cross-domain swapping tasks. SwapAnything also achieves great performance on text-based swapping and tasks beyond swapping such as object insertion.
PDF260December 15, 2024