ChatPaper.aiChatPaper

Curatation de modalités : Construction d'embeddings universels pour la recherche d'information multimodale avancée

Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval

May 26, 2025
Auteurs: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI

Résumé

La recherche d'information multimodale (MIR) est confrontée à des défis inhérents en raison de l'hétérogénéité des sources de données et de la complexité de l'alignement intermodal. Bien que des études antérieures aient identifié des écarts modaux dans les espaces de caractéristiques, une approche systématique pour relever ces défis reste inexplorée. Dans ce travail, nous introduisons UNITE, un cadre universel qui aborde ces défis à travers deux aspects critiques mais peu explorés : la curation des données et les configurations d'entraînement adaptées aux modalités. Notre travail fournit la première analyse approfondie de la manière dont les propriétés spécifiques des données modales influencent les performances des tâches en aval dans divers scénarios. De plus, nous proposons l'apprentissage contrastif masqué adapté aux modalités (MAMCL) pour atténuer les relations compétitives entre les instances de différentes modalités. Notre cadre obtient des résultats de pointe sur plusieurs benchmarks de recherche multimodale, surpassant les méthodes existantes par des marges notables. À travers des expériences approfondies, nous démontrons que la curation stratégique des modalités et les protocoles d'entraînement sur mesure sont essentiels pour un apprentissage robuste des représentations intermodales. Ce travail non seulement améliore les performances de la MIR, mais fournit également un plan de base pour les recherches futures sur les systèmes multimodaux. Notre projet est disponible à l'adresse https://friedrichor.github.io/projects/UNITE.
English
Multimodal information retrieval (MIR) faces inherent challenges due to the heterogeneity of data sources and the complexity of cross-modal alignment. While previous studies have identified modal gaps in feature spaces, a systematic approach to address these challenges remains unexplored. In this work, we introduce UNITE, a universal framework that tackles these challenges through two critical yet underexplored aspects: data curation and modality-aware training configurations. Our work provides the first comprehensive analysis of how modality-specific data properties influence downstream task performance across diverse scenarios. Moreover, we propose Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive relationships among the instances of different modalities. Our framework achieves state-of-the-art results on multiple multimodal retrieval benchmarks, outperforming existing methods by notable margins. Through extensive experiments, we demonstrate that strategic modality curation and tailored training protocols are pivotal for robust cross-modal representation learning. This work not only advances MIR performance but also provides a foundational blueprint for future research in multimodal systems. Our project is available at https://friedrichor.github.io/projects/UNITE.

Summary

AI-Generated Summary

PDF42May 28, 2025