ChatPaper.aiChatPaper

EVF-SAM: Раннее объединение зрительной и языковой информации для сегментации по текстовому запросу.

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Авторы: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Аннотация

Модель Segment Anything (SAM) привлекла широкое внимание благодаря своим выдающимся интерактивным возможностям сегментации с визуальными подсказками, однако она не была достаточно исследована с точки зрения текстовых подсказок. В данной статье мы эмпирически исследуем, для чего хороши текстовые кодировщики подсказок (например, CLIP или LLM) для адаптации SAM к сегментации выражений обращения и представляем модель EVF-SAM на основе раннего объединения зрение-язык. EVF-SAM - это простой, но эффективный метод сегментации обращений, который использует мультимодальные подсказки (изображение и текст) и включает предварительно обученную модель зрение-язык для генерации обращающих подсказок и модель SAM для сегментации. Удивительно, что мы наблюдаем: (1) мультимодальные подсказки и (2) модели зрение-язык с ранним объединением (например, BEIT-3) полезны для подсказки SAM для точной сегментации обращений. Наши эксперименты показывают, что предложенная EVF-SAM на основе BEIT-3 может достичь передового качества на RefCOCO/+/g для сегментации выражений обращения и продемонстрировать превосходство подсказки SAM с ранним объединением зрение-язык. Кроме того, предложенная EVF-SAM с 1,32 млрд параметров достигает значительно более высокого качества, сокращая почти 82% параметров по сравнению с предыдущими методами SAM на основе крупных мультимодальных моделей.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.

Summary

AI-Generated Summary

PDF103November 29, 2024