ChatPaper.aiChatPaper

EVF-SAM: Frühe Vision-Sprache-Verschmelzung für Text-aufgefordertes Segmentieren von allem Modell

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Autoren: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Zusammenfassung

Das Segment Anything Model (SAM) hat aufgrund seiner überlegenen interaktiven Segmentierungsfähigkeiten mit visuellen Hinweisen weitreichende Aufmerksamkeit erregt, während die weitere Erkundung von Texthinweisen fehlt. In diesem Paper untersuchen wir empirisch, wofür Texthinweis-Encoder (z. B. CLIP oder LLM) gut sind, um SAM für die Segmentierung von Verweisausdrücken anzupassen, und stellen das Early Vision-Language Fusion-basierte SAM (EVF-SAM) vor. EVF-SAM ist eine einfache, aber effektive Methode zur Verweissegmentierung, die multimodale Hinweise (d. h. Bild und Text) nutzt und ein vortrainiertes Vision-Language-Modell zur Generierung von Verweishinweisen sowie ein SAM-Modell zur Segmentierung umfasst. Überraschenderweise beobachten wir, dass: (1) multimodale Hinweise und (2) Vision-Language-Modelle mit früher Fusion (z. B. BEIT-3) vorteilhaft sind, um SAM für eine präzise Verweissegmentierung anzuleiten. Unsere Experimente zeigen, dass das vorgeschlagene EVF-SAM basierend auf BEIT-3 eine Spitzenleistung bei RefCOCO/+/g für die Segmentierung von Verweisausdrücken erzielen kann und die Überlegenheit der Anleitung von SAM mit früher Vision-Language-Fusion demonstrieren. Darüber hinaus erreicht das vorgeschlagene EVF-SAM mit 1,32 Milliarden Parametern eine deutlich höhere Leistung, während es im Vergleich zu früheren SAM-Methoden auf großen multimodalen Modellen fast 82% der Parameter reduziert.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.

Summary

AI-Generated Summary

PDF103November 29, 2024