Курация модальностей: создание универсальных эмбеддингов для расширенного мультимодального поиска информации
Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval
May 26, 2025
Авторы: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI
Аннотация
Мультимодальный поиск информации (MIR) сталкивается с внутренними трудностями из-за неоднородности источников данных и сложности кросс-модального согласования. Хотя предыдущие исследования выявили модальные разрывы в пространствах признаков, систематический подход к решению этих проблем остается неисследованным. В данной работе мы представляем UNITE — универсальную структуру, которая решает эти задачи через два критических, но недостаточно изученных аспекта: курацию данных и модально-ориентированные конфигурации обучения. Наша работа предоставляет первый всесторонний анализ того, как специфические для модальности свойства данных влияют на производительность в различных сценариях. Кроме того, мы предлагаем Modal-Aware Masked Contrastive Learning (MAMCL) для смягчения конкурентных отношений между экземплярами разных модальностей. Наша структура достигает современных результатов на нескольких мультимодальных бенчмарках, значительно превосходя существующие методы. Благодаря обширным экспериментам мы демонстрируем, что стратегическая курация модальностей и адаптированные протоколы обучения являются ключевыми для устойчивого кросс-модального обучения представлений. Эта работа не только улучшает производительность MIR, но и предоставляет основу для будущих исследований в мультимодальных системах. Наш проект доступен по адресу https://friedrichor.github.io/projects/UNITE.
English
Multimodal information retrieval (MIR) faces inherent challenges due to the
heterogeneity of data sources and the complexity of cross-modal alignment.
While previous studies have identified modal gaps in feature spaces, a
systematic approach to address these challenges remains unexplored. In this
work, we introduce UNITE, a universal framework that tackles these challenges
through two critical yet underexplored aspects: data curation and
modality-aware training configurations. Our work provides the first
comprehensive analysis of how modality-specific data properties influence
downstream task performance across diverse scenarios. Moreover, we propose
Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive
relationships among the instances of different modalities. Our framework
achieves state-of-the-art results on multiple multimodal retrieval benchmarks,
outperforming existing methods by notable margins. Through extensive
experiments, we demonstrate that strategic modality curation and tailored
training protocols are pivotal for robust cross-modal representation learning.
This work not only advances MIR performance but also provides a foundational
blueprint for future research in multimodal systems. Our project is available
at https://friedrichor.github.io/projects/UNITE.Summary
AI-Generated Summary