ChatPaper.aiChatPaper

Open-Vocabulary SAM: Segmentação e Reconhecimento Interativo de Vinte Mil Classes

Open-Vocabulary SAM: Segment and Recognize Twenty-thousand Classes Interactively

January 5, 2024
Autores: Haobo Yuan, Xiangtai Li, Chong Zhou, Yining Li, Kai Chen, Chen Change Loy
cs.AI

Resumo

O CLIP e o Segment Anything Model (SAM) são modelos fundamentais de visão (VFMs) notáveis. O SAM se destaca em tarefas de segmentação em diversos domínios, enquanto o CLIP é reconhecido por suas capacidades de reconhecimento zero-shot. Este artigo apresenta uma exploração detalhada da integração desses dois modelos em um framework unificado. Especificamente, introduzimos o Open-Vocabulary SAM, um modelo inspirado no SAM projetado para segmentação interativa e reconhecimento simultâneos, aproveitando dois módulos únicos de transferência de conhecimento: SAM2CLIP e CLIP2SAM. O primeiro adapta o conhecimento do SAM para o CLIP por meio de destilação e adaptadores de transformadores aprendíveis, enquanto o segundo transfere o conhecimento do CLIP para o SAM, aprimorando suas capacidades de reconhecimento. Experimentos extensos em diversos conjuntos de dados e detectores mostram a eficácia do Open-Vocabulary SAM tanto em tarefas de segmentação quanto de reconhecimento, superando significativamente as abordagens básicas de simplesmente combinar o SAM e o CLIP. Além disso, com o auxílio de treinamento em dados de classificação de imagens, nosso método pode segmentar e reconhecer aproximadamente 22.000 classes.
English
The CLIP and Segment Anything Model (SAM) are remarkable vision foundation models (VFMs). SAM excels in segmentation tasks across diverse domains, while CLIP is renowned for its zero-shot recognition capabilities. This paper presents an in-depth exploration of integrating these two models into a unified framework. Specifically, we introduce the Open-Vocabulary SAM, a SAM-inspired model designed for simultaneous interactive segmentation and recognition, leveraging two unique knowledge transfer modules: SAM2CLIP and CLIP2SAM. The former adapts SAM's knowledge into the CLIP via distillation and learnable transformer adapters, while the latter transfers CLIP knowledge into SAM, enhancing its recognition capabilities. Extensive experiments on various datasets and detectors show the effectiveness of Open-Vocabulary SAM in both segmentation and recognition tasks, significantly outperforming the naive baselines of simply combining SAM and CLIP. Furthermore, aided with image classification data training, our method can segment and recognize approximately 22,000 classes.
PDF231February 7, 2026