ChatPaper.aiChatPaper

EVF-SAM: テキストプロンプトによるセグメンテーションのための早期視覚-言語融合モデル

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
著者: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

要旨

Segment Anything Model (SAM)は、視覚的プロンプトを用いた優れたインタラクティブセグメンテーション能力で広く注目を集めているが、テキストプロンプトのさらなる探求が不足している。本論文では、参照表現セグメンテーションのためにSAMを適応させるのに適したテキストプロンプトエンコーダ(例:CLIPやLLM)を実証的に調査し、Early Vision-language Fusion-based SAM (EVF-SAM)を紹介する。EVF-SAMは、マルチモーダルプロンプト(画像とテキスト)を活用し、参照プロンプトを生成するための事前学習済み視覚言語モデルとセグメンテーションのためのSAMモデルで構成される、シンプルでありながら効果的な参照セグメンテーション手法である。驚くべきことに、我々は以下の点を観察した:(1) マルチモーダルプロンプトと、(2) 早期融合を採用した視覚言語モデル(例:BEIT-3)が、正確な参照セグメンテーションのためにSAMをプロンプトするのに有益である。実験結果は、BEIT-3に基づく提案手法EVF-SAMが、RefCOCO/+/gにおける参照表現セグメンテーションで最先端の性能を達成し、早期視覚言語融合を用いてSAMをプロンプトすることの優位性を示している。さらに、提案されたEVF-SAMは1.32Bのパラメータを持ちながら、大規模マルチモーダルモデルに基づく従来のSAM手法と比較して約82%のパラメータを削減しつつ、著しく高い性能を達成している。
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.

Summary

AI-Generated Summary

PDF103November 29, 2024