ChatPaper.aiChatPaper

EVF-SAM: Fusión Temprana Visión-Lenguaje para el Modelo Segment Anything con Indicaciones de Texto

EVF-SAM: Early Vision-Language Fusion for Text-Prompted Segment Anything Model

June 28, 2024
Autores: Yuxuan Zhang, Tianheng Cheng, Rui Hu, ei Liu, Heng Liu, Longjin Ran, Xiaoxin Chen, Wenyu Liu, Xinggang Wang
cs.AI

Resumen

El Segment Anything Model (SAM) ha atraído una atención generalizada por sus capacidades superiores de segmentación interactiva con indicaciones visuales, aunque carece de una exploración más profunda de las indicaciones textuales. En este artículo, investigamos empíricamente qué codificadores de indicaciones textuales (por ejemplo, CLIP o LLM) son adecuados para adaptar SAM a la segmentación de expresiones referenciales e introducimos el SAM basado en Fusión Temprana Visión-Lenguaje (EVF-SAM). EVF-SAM es un método de segmentación referencial simple pero efectivo que aprovecha indicaciones multimodales (es decir, imagen y texto) y comprende un modelo preentrenado de visión-lenguaje para generar indicaciones referenciales y un modelo SAM para la segmentación. Sorprendentemente, observamos que: (1) las indicaciones multimodales y (2) los modelos de visión-lenguaje con fusión temprana (por ejemplo, BEIT-3) son beneficiosos para indicar a SAM una segmentación referencial precisa. Nuestros experimentos muestran que el EVF-SAM propuesto, basado en BEIT-3, puede obtener un rendimiento de vanguardia en RefCOCO/+/g para la segmentación de expresiones referenciales y demuestra la superioridad de indicar a SAM con fusión temprana visión-lenguaje. Además, el EVF-SAM propuesto, con 1.32 mil millones de parámetros, logra un rendimiento notablemente superior mientras reduce casi un 82% de los parámetros en comparación con los métodos SAM anteriores basados en modelos multimodales grandes.
English
Segment Anything Model (SAM) has attracted widespread attention for its superior interactive segmentation capabilities with visual prompts while lacking further exploration of text prompts. In this paper, we empirically investigate what text prompt encoders (e.g., CLIP or LLM) are good for adapting SAM for referring expression segmentation and introduce the Early Vision-language Fusion-based SAM (EVF-SAM). EVF-SAM is a simple yet effective referring segmentation method which exploits multimodal prompts (i.e., image and text) and comprises a pre-trained vision-language model to generate referring prompts and a SAM model for segmentation. Surprisingly, we observe that: (1) multimodal prompts and (2) vision-language models with early fusion (e.g., BEIT-3) are beneficial for prompting SAM for accurate referring segmentation. Our experiments show that the proposed EVF-SAM based on BEIT-3 can obtain state-of-the-art performance on RefCOCO/+/g for referring expression segmentation and demonstrate the superiority of prompting SAM with early vision-language fusion. In addition, the proposed EVF-SAM with 1.32B parameters achieves remarkably higher performance while reducing nearly 82% of parameters compared to previous SAM methods based on large multimodal models.

Summary

AI-Generated Summary

PDF103November 29, 2024