ChatPaper.aiChatPaper

Personalize o Modelo Segment Anything com Um Único Exemplo

Personalize Segment Anything Model with One Shot

May 4, 2023
Autores: Renrui Zhang, Zhengkai Jiang, Ziyu Guo, Shilin Yan, Junting Pan, Hao Dong, Peng Gao, Hongsheng Li
cs.AI

Resumo

Impulsionado pelo pré-treinamento com grandes volumes de dados, o Segment Anything Model (SAM) tem se mostrado uma estrutura poderosa e acionável por prompts, revolucionando os modelos de segmentação. Apesar de sua generalidade, a personalização do SAM para conceitos visuais específicos sem a necessidade de prompts manuais ainda é pouco explorada, como, por exemplo, segmentar automaticamente seu cachorro de estimação em diferentes imagens. Neste artigo, propomos uma abordagem de Personalização sem treinamento para o SAM, denominada PerSAM. Dada apenas uma única imagem com uma máscara de referência, o PerSAM primeiro localiza o conceito alvo por meio de uma prioridade de localização e o segmenta em outras imagens ou vídeos através de três técnicas: atenção guiada pelo alvo, prompting semântico do alvo e refinamento em cascata pós-processamento. Dessa forma, adaptamos efetivamente o SAM para uso privado sem qualquer treinamento. Para mitigar ainda mais a ambiguidade das máscaras, apresentamos uma variante eficiente de ajuste fino em um único passo, o PerSAM-F. Congelando todo o SAM, introduzimos dois pesos aprendíveis para máscaras multi-escala, treinando apenas 2 parâmetros em 10 segundos para melhorar o desempenho. Para demonstrar nossa eficácia, construímos um novo conjunto de dados de segmentação, o PerSeg, para avaliação personalizada, e testamos nossos métodos em segmentação de objetos em vídeos com desempenho competitivo. Além disso, nossa abordagem também pode aprimorar o DreamBooth para personalizar o Stable Diffusion na geração de imagens a partir de texto, eliminando a interferência do fundo para um melhor aprendizado da aparência do alvo. O código está disponível em https://github.com/ZrrSkywalker/Personalize-SAM.
English
Driven by large-data pre-training, Segment Anything Model (SAM) has been demonstrated as a powerful and promptable framework, revolutionizing the segmentation models. Despite the generality, customizing SAM for specific visual concepts without man-powered prompting is under explored, e.g., automatically segmenting your pet dog in different images. In this paper, we propose a training-free Personalization approach for SAM, termed as PerSAM. Given only a single image with a reference mask, PerSAM first localizes the target concept by a location prior, and segments it within other images or videos via three techniques: target-guided attention, target-semantic prompting, and cascaded post-refinement. In this way, we effectively adapt SAM for private use without any training. To further alleviate the mask ambiguity, we present an efficient one-shot fine-tuning variant, PerSAM-F. Freezing the entire SAM, we introduce two learnable weights for multi-scale masks, only training 2 parameters within 10 seconds for improved performance. To demonstrate our efficacy, we construct a new segmentation dataset, PerSeg, for personalized evaluation, and test our methods on video object segmentation with competitive performance. Besides, our approach can also enhance DreamBooth to personalize Stable Diffusion for text-to-image generation, which discards the background disturbance for better target appearance learning. Code is released at https://github.com/ZrrSkywalker/Personalize-SAM
PDF91February 7, 2026