ChatPaper.aiChatPaper

VLM2Vec-V2: Развитие мультимодальных эмбеддингов для видео, изображений и визуальных документов

VLM2Vec-V2: Advancing Multimodal Embedding for Videos, Images, and Visual Documents

July 7, 2025
Авторы: Rui Meng, Ziyan Jiang, Ye Liu, Mingyi Su, Xinyi Yang, Yuepeng Fu, Can Qin, Zeyuan Chen, Ran Xu, Caiming Xiong, Yingbo Zhou, Wenhu Chen, Semih Yavuz
cs.AI

Аннотация

Мультимодальные модели эмбеддингов сыграли ключевую роль в решении различных задач, таких как семантическое сходство, информационный поиск и кластеризация для разных модальностей. Однако существующие мультимодальные эмбеддинги, такие как VLM2Vec, E5-V и GME, в основном ориентированы на обработку естественных изображений, с ограниченной поддержкой других визуальных форм, таких как видео и визуальные документы. Это ограничивает их применимость в реальных сценариях, включая ИИ-агентов, мультимодальный поиск и рекомендации, а также генерацию, усиленную поиском (RAG). Чтобы устранить этот пробел, мы предлагаем VLM2Vec-V2 — унифицированную платформу для обучения эмбеддингов для разнообразных визуальных форм. Сначала мы представляем MMEB-V2, расширенный бенчмарк, который дополняет MMEB пятью новыми типами задач: поиск визуальных документов, поиск видео, временная локализация, классификация видео и ответы на вопросы по видео — охватывая текстовые, графические, видео и визуальные документы. Затем мы обучаем VLM2Vec-V2 — универсальную модель эмбеддингов, поддерживающую текстовые, графические, видео и визуальные документы. Многочисленные эксперименты показывают, что VLM2Vec-V2 демонстрирует высокую производительность не только на новых задачах поиска видео и документов, но и превосходит предыдущие базовые модели на оригинальных бенчмарках для изображений. Благодаря всесторонней оценке, наше исследование предоставляет инсайты об обобщаемости различных мультимодальных моделей эмбеддингов и выделяет эффективные стратегии для унифицированного обучения эмбеддингов, закладывая основу для более масштабируемого и адаптируемого обучения представлений как в исследованиях, так и в реальных условиях.
English
Multimodal embedding models have been crucial in enabling various downstream tasks such as semantic similarity, information retrieval, and clustering over different modalities. However, existing multimodal embeddings like VLM2Vec, E5-V, GME are predominantly focused on natural images, with limited support for other visual forms such as videos and visual documents. This restricts their applicability in real-world scenarios, including AI agents, multi-modal search and recommendation, and retrieval-augmented generation (RAG). To close this gap, we propose VLM2Vec-V2, a unified framework for learning embeddings across diverse visual forms. First, we introduce MMEB-V2, a comprehensive benchmark that extends MMEB with five new task types: visual document retrieval, video retrieval, temporal grounding, video classification and video question answering - spanning text, image, video, and visual document inputs. Next, we train VLM2Vec-V2, a general-purpose embedding model that supports text, image, video, and visual document inputs. Extensive experiments show that VLM2Vec-V2 achieves strong performance not only on the newly introduced video and document retrieval tasks, but also improves over prior baselines on the original image benchmarks. Through extensive evaluation, our study offers insights into the generalizability of various multimodal embedding models and highlights effective strategies for unified embedding learning, laying the groundwork for more scalable and adaptable representation learning in both research and real-world settings.
PDF41July 8, 2025