ChatPaper.aiChatPaper

Curatela delle Modalità: Costruzione di Embedding Universali per il Recupero Avanzato di Informazioni Multimodali

Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval

May 26, 2025
Autori: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI

Abstract

Il recupero di informazioni multimodali (MIR) affronta sfide intrinseche dovute all'eterogeneità delle fonti di dati e alla complessità dell'allineamento cross-modale. Sebbene studi precedenti abbiano identificato lacune modali negli spazi delle caratteristiche, un approccio sistematico per affrontare queste sfide rimane inesplorato. In questo lavoro, introduciamo UNITE, un framework universale che affronta queste sfide attraverso due aspetti critici ma poco esplorati: la cura dei dati e le configurazioni di addestramento consapevoli della modalità. Il nostro lavoro fornisce la prima analisi completa di come le proprietà specifiche dei dati influenzano le prestazioni delle attività downstream in diversi scenari. Inoltre, proponiamo il Modal-Aware Masked Contrastive Learning (MAMCL) per mitigare le relazioni competitive tra le istanze di diverse modalità. Il nostro framework raggiunge risultati all'avanguardia su molteplici benchmark di recupero multimodale, superando i metodi esistenti con margini significativi. Attraverso esperimenti estesi, dimostriamo che la cura strategica delle modalità e i protocolli di addestramento su misura sono fondamentali per un apprendimento robusto delle rappresentazioni cross-modali. Questo lavoro non solo avanza le prestazioni del MIR, ma fornisce anche un progetto di base per la ricerca futura nei sistemi multimodali. Il nostro progetto è disponibile all'indirizzo https://friedrichor.github.io/projects/UNITE.
English
Multimodal information retrieval (MIR) faces inherent challenges due to the heterogeneity of data sources and the complexity of cross-modal alignment. While previous studies have identified modal gaps in feature spaces, a systematic approach to address these challenges remains unexplored. In this work, we introduce UNITE, a universal framework that tackles these challenges through two critical yet underexplored aspects: data curation and modality-aware training configurations. Our work provides the first comprehensive analysis of how modality-specific data properties influence downstream task performance across diverse scenarios. Moreover, we propose Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive relationships among the instances of different modalities. Our framework achieves state-of-the-art results on multiple multimodal retrieval benchmarks, outperforming existing methods by notable margins. Through extensive experiments, we demonstrate that strategic modality curation and tailored training protocols are pivotal for robust cross-modal representation learning. This work not only advances MIR performance but also provides a foundational blueprint for future research in multimodal systems. Our project is available at https://friedrichor.github.io/projects/UNITE.
PDF42May 28, 2025