Modalitycuratie: Het bouwen van universele embeddings voor geavanceerde multimodale informatie-ophaling
Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval
May 26, 2025
Auteurs: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI
Samenvatting
Multimodale informatie-retrieval (MIR) wordt geconfronteerd met inherente uitdagingen vanwege de heterogeniteit van gegevensbronnen en de complexiteit van kruismodale uitlijning. Hoewel eerdere studies modale verschillen in kenmerkruimten hebben geïdentificeerd, blijft een systematische aanpak om deze uitdagingen aan te pakken onontgonnen. In dit werk introduceren we UNITE, een universeel raamwerk dat deze uitdagingen aanpakt via twee cruciale maar onderbelichte aspecten: gegevenscuratie en modaal-bewuste trainingsconfiguraties. Ons werk biedt de eerste uitgebreide analyse van hoe modaal-specifieke gegevenseigenschappen de prestaties van downstream taken beïnvloeden in diverse scenario's. Bovendien stellen we Modal-Aware Masked Contrastive Learning (MAMCL) voor om de competitieve relaties tussen instanties van verschillende modaliteiten te verminderen. Ons raamwerk behaalt state-of-the-art resultaten op meerdere multimodale retrieval benchmarks en overtreft bestaande methoden met aanzienlijke marges. Door uitgebreide experimenten tonen we aan dat strategische modale curatie en op maat gemaakte trainingsprotocollen cruciaal zijn voor robuuste kruismodale representatieleer. Dit werk verbetert niet alleen de MIR-prestaties, maar biedt ook een fundamentele blauwdruk voor toekomstig onderzoek in multimodale systemen. Ons project is beschikbaar op https://friedrichor.github.io/projects/UNITE.
English
Multimodal information retrieval (MIR) faces inherent challenges due to the
heterogeneity of data sources and the complexity of cross-modal alignment.
While previous studies have identified modal gaps in feature spaces, a
systematic approach to address these challenges remains unexplored. In this
work, we introduce UNITE, a universal framework that tackles these challenges
through two critical yet underexplored aspects: data curation and
modality-aware training configurations. Our work provides the first
comprehensive analysis of how modality-specific data properties influence
downstream task performance across diverse scenarios. Moreover, we propose
Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive
relationships among the instances of different modalities. Our framework
achieves state-of-the-art results on multiple multimodal retrieval benchmarks,
outperforming existing methods by notable margins. Through extensive
experiments, we demonstrate that strategic modality curation and tailored
training protocols are pivotal for robust cross-modal representation learning.
This work not only advances MIR performance but also provides a foundational
blueprint for future research in multimodal systems. Our project is available
at https://friedrichor.github.io/projects/UNITE.