ChatPaper.aiChatPaper

EVF-SAM: Fusão de Visão e Linguagem Antecipada para Segmentação de Qualquer Coisa com Base em Texto. Modelo

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Autores: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Resumo

O Modelo Segment Anything (SAM) tem atraído ampla atenção por suas superiores capacidades de segmentação interativa com prompts visuais, embora careça de uma exploração mais aprofundada de prompts de texto. Neste artigo, investigamos empiricamente para que servem os codificadores de prompts de texto (por exemplo, CLIP ou LLM) na adaptação do SAM para segmentação de expressões de referência e introduzimos o SAM baseado em Fusão de Visão-linguagem Antecipada (EVF-SAM). O EVF-SAM é um método simples, porém eficaz, de segmentação de referência que explora prompts multimodais (ou seja, imagem e texto) e consiste em um modelo de visão-linguagem pré-treinado para gerar prompts de referência e um modelo SAM para segmentação. Surpreendentemente, observamos que: (1) prompts multimodais e (2) modelos de visão-linguagem com fusão antecipada (por exemplo, BEIT-3) são benéficos para orientar o SAM para uma segmentação de referência precisa. Nossos experimentos mostram que o EVF-SAM proposto com base no BEIT-3 pode obter um desempenho de ponta no RefCOCO/+/g para segmentação de expressões de referência e demonstrar a superioridade de orientar o SAM com fusão antecipada de visão-linguagem. Além disso, o EVF-SAM proposto com 1,32 bilhões de parâmetros alcança um desempenho significativamente maior, reduzindo quase 82% dos parâmetros em comparação com métodos SAM anteriores baseados em grandes modelos multimodais.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.
PDF103November 29, 2024