ChatPaper.aiChatPaper

Мультимодальная сегментация с использованием ссылок: Обзор

Multimodal Referring Segmentation: A Survey

August 1, 2025
Авторы: Henghui Ding, Song Tang, Shuting He, Chang Liu, Zuxuan Wu, Yu-Gang Jiang
cs.AI

Аннотация

Мультимодальная сегментация по ссылкам направлена на выделение целевых объектов в визуальных сценах, таких как изображения, видео и 3D-сцены, на основе ссылочных выражений в текстовом или аудиоформате. Эта задача играет ключевую роль в практических приложениях, требующих точного восприятия объектов на основе пользовательских инструкций. За последнее десятилетие она привлекла значительное внимание в мультимодальном сообществе благодаря достижениям в области сверточных нейронных сетей, трансформеров и крупных языковых моделей, которые существенно улучшили возможности мультимодального восприятия. В данной статье представлен всесторонний обзор мультимодальной сегментации по ссылкам. Мы начинаем с введения в область, включая определения задач и часто используемые наборы данных. Далее мы обобщаем унифицированную метаархитектуру для сегментации по ссылкам и рассматриваем репрезентативные методы для трех основных типов визуальных сцен: изображений, видео и 3D-сцен. Мы также обсуждаем методы обобщенных ссылочных выражений (GREx), направленные на решение проблем, связанных со сложностью реального мира, а также связанные задачи и практические приложения. Представлены обширные сравнения производительности на стандартных тестовых наборах. Мы постоянно отслеживаем связанные работы на https://github.com/henghuiding/Awesome-Multimodal-Referring-Segmentation.
English
Multimodal referring segmentation aims to segment target objects in visual scenes, such as images, videos, and 3D scenes, based on referring expressions in text or audio format. This task plays a crucial role in practical applications requiring accurate object perception based on user instructions. Over the past decade, it has gained significant attention in the multimodal community, driven by advances in convolutional neural networks, transformers, and large language models, all of which have substantially improved multimodal perception capabilities. This paper provides a comprehensive survey of multimodal referring segmentation. We begin by introducing this field's background, including problem definitions and commonly used datasets. Next, we summarize a unified meta architecture for referring segmentation and review representative methods across three primary visual scenes, including images, videos, and 3D scenes. We further discuss Generalized Referring Expression (GREx) methods to address the challenges of real-world complexity, along with related tasks and practical applications. Extensive performance comparisons on standard benchmarks are also provided. We continually track related works at https://github.com/henghuiding/Awesome-Multimodal-Referring-Segmentation.
PDF73August 4, 2025