ChatPaper.aiChatPaper

EVF-SAM : Fusion Précoce Vision-Langage pour le Modèle Segment Anything Guidé par Texte

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Auteurs: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Résumé

Le Segment Anything Model (SAM) a suscité une attention considérable pour ses capacités supérieures de segmentation interactive avec des prompts visuels, tout en manquant d'exploration approfondie concernant les prompts textuels. Dans cet article, nous étudions empiriquement quels encodeurs de prompts textuels (par exemple, CLIP ou LLM) sont adaptés pour adapter SAM à la segmentation d'expressions référentielles et introduisons l'EVF-SAM (Early Vision-language Fusion-based SAM). EVF-SAM est une méthode de segmentation référentielle simple mais efficace qui exploite des prompts multimodaux (c'est-à-dire image et texte) et comprend un modèle vision-langage pré-entraîné pour générer des prompts référentiels ainsi qu'un modèle SAM pour la segmentation. Étonnamment, nous observons que : (1) les prompts multimodaux et (2) les modèles vision-langage avec fusion précoce (par exemple, BEIT-3) sont bénéfiques pour inciter SAM à réaliser une segmentation référentielle précise. Nos expériences montrent que l'EVF-SAM proposé, basé sur BEIT-3, peut atteindre des performances de pointe sur RefCOCO/+/g pour la segmentation d'expressions référentielles et démontre la supériorité de l'incitation de SAM avec une fusion précoce vision-langage. De plus, l'EVF-SAM proposé, avec 1,32 milliard de paramètres, obtient des performances remarquablement supérieures tout en réduisant près de 82 % des paramètres par rapport aux méthodes SAM précédentes basées sur de grands modèles multimodaux.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.

Summary

AI-Generated Summary

PDF103November 29, 2024