ChatPaper.aiChatPaper

EVF-SAM: Fusione Precoce Visione-Linguaggio per il Modello Segment Anything con Prompt Testuali

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Autori: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Abstract

Il Segment Anything Model (SAM) ha attirato un'ampia attenzione per le sue superiori capacità di segmentazione interattiva con prompt visivi, mentre manca un'ulteriore esplorazione dei prompt testuali. In questo articolo, investigiamo empiricamente quali encoder di prompt testuali (ad esempio, CLIP o LLM) siano adatti per adattare SAM alla segmentazione di espressioni referenziali e introduciamo l'Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM è un metodo di segmentazione referenziale semplice ma efficace che sfrutta prompt multimodali (cioè immagine e testo) e comprende un modello vision-language pre-addestrato per generare prompt referenziali e un modello SAM per la segmentazione. Sorprendentemente, osserviamo che: (1) i prompt multimodali e (2) i modelli vision-language con fusione precoce (ad esempio, BEIT-3) sono vantaggiosi per indurre SAM a eseguire una segmentazione referenziale accurata. I nostri esperimenti dimostrano che il proposto EVF-SAM basato su BEIT-3 può ottenere prestazioni all'avanguardia su RefCOCO/+/g per la segmentazione di espressioni referenziali e dimostrano la superiorità dell'induzione di SAM con fusione precoce vision-language. Inoltre, il proposto EVF-SAM con 1,32 miliardi di parametri raggiunge prestazioni notevolmente superiori riducendo quasi l'82% dei parametri rispetto ai precedenti metodi SAM basati su grandi modelli multimodali.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.
PDF93November 29, 2024