ChatPaper.aiChatPaper

モダリティキュレーション:高度なマルチモーダル情報検索のためのユニバーサル埋め込みの構築

Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval

May 26, 2025
著者: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI

要旨

マルチモーダル情報検索(MIR)は、データソースの異質性とクロスモーダルアラインメントの複雑さにより、本質的な課題に直面しています。これまでの研究では、特徴空間におけるモーダルギャップが指摘されてきましたが、これらの課題に対処する体系的なアプローチは未だ探求されていません。本研究では、UNITEという普遍的なフレームワークを導入し、データキュレーションとモーダル対応のトレーニング設定という、重要なながらも未開拓の側面を通じてこれらの課題に取り組みます。本論文では、モーダル固有のデータ特性が多様なシナリオにおける下流タスクの性能にどのように影響するかについて、初めて包括的な分析を提供します。さらに、異なるモーダルのインスタンス間の競合関係を緩和するために、モーダル対応マスク付きコントラスティブラーニング(MAMCL)を提案します。本フレームワークは、複数のマルチモーダル検索ベンチマークにおいて最先端の結果を達成し、既存の手法を顕著な差で上回りました。広範な実験を通じて、戦略的なモーダルキュレーションと調整されたトレーニングプロトコルが、堅牢なクロスモーダル表現学習において極めて重要であることを実証しました。本研究は、MIRの性能を向上させるだけでなく、マルチモーダルシステムにおける将来の研究のための基礎的な青図を提供します。本プロジェクトはhttps://friedrichor.github.io/projects/UNITEで公開されています。
English
Multimodal information retrieval (MIR) faces inherent challenges due to the heterogeneity of data sources and the complexity of cross-modal alignment. While previous studies have identified modal gaps in feature spaces, a systematic approach to address these challenges remains unexplored. In this work, we introduce UNITE, a universal framework that tackles these challenges through two critical yet underexplored aspects: data curation and modality-aware training configurations. Our work provides the first comprehensive analysis of how modality-specific data properties influence downstream task performance across diverse scenarios. Moreover, we propose Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive relationships among the instances of different modalities. Our framework achieves state-of-the-art results on multiple multimodal retrieval benchmarks, outperforming existing methods by notable margins. Through extensive experiments, we demonstrate that strategic modality curation and tailored training protocols are pivotal for robust cross-modal representation learning. This work not only advances MIR performance but also provides a foundational blueprint for future research in multimodal systems. Our project is available at https://friedrichor.github.io/projects/UNITE.

Summary

AI-Generated Summary

PDF42May 28, 2025