ChatPaper.aiChatPaper

Curadoria de Modalidades: Construindo Embeddings Universais para Recuperação Avançada de Informações Multimodais

Modality Curation: Building Universal Embeddings for Advanced Multimodal Information Retrieval

May 26, 2025
Autores: Fanheng Kong, Jingyuan Zhang, Yahui Liu, Hongzhi Zhang, Shi Feng, Xiaocui Yang, Daling Wang, Yu Tian, Victoria W., Fuzheng Zhang, Guorui Zhou
cs.AI

Resumo

A recuperação de informações multimodais (MIR) enfrenta desafios inerentes devido à heterogeneidade das fontes de dados e à complexidade do alinhamento entre modalidades. Embora estudos anteriores tenham identificado lacunas modais nos espaços de características, uma abordagem sistemática para resolver esses desafios permanece inexplorada. Neste trabalho, apresentamos o UNITE, um framework universal que aborda esses desafios por meio de dois aspectos críticos, mas pouco explorados: a curadoria de dados e configurações de treinamento conscientes da modalidade. Nosso trabalho fornece a primeira análise abrangente de como as propriedades específicas dos dados de cada modalidade influenciam o desempenho em tarefas subsequentes em diversos cenários. Além disso, propomos o Aprendizado Contrastivo Mascarado Consciente da Modalidade (MAMCL) para mitigar as relações competitivas entre as instâncias de diferentes modalidades. Nosso framework alcança resultados de ponta em vários benchmarks de recuperação multimodal, superando os métodos existentes por margens significativas. Por meio de extensos experimentos, demonstramos que a curadoria estratégica de modalidades e protocolos de treinamento personalizados são fundamentais para o aprendizado robusto de representações cruzadas entre modalidades. Este trabalho não apenas avança o desempenho da MIR, mas também fornece um plano fundamental para pesquisas futuras em sistemas multimodais. Nosso projeto está disponível em https://friedrichor.github.io/projects/UNITE.
English
Multimodal information retrieval (MIR) faces inherent challenges due to the heterogeneity of data sources and the complexity of cross-modal alignment. While previous studies have identified modal gaps in feature spaces, a systematic approach to address these challenges remains unexplored. In this work, we introduce UNITE, a universal framework that tackles these challenges through two critical yet underexplored aspects: data curation and modality-aware training configurations. Our work provides the first comprehensive analysis of how modality-specific data properties influence downstream task performance across diverse scenarios. Moreover, we propose Modal-Aware Masked Contrastive Learning (MAMCL) to mitigate the competitive relationships among the instances of different modalities. Our framework achieves state-of-the-art results on multiple multimodal retrieval benchmarks, outperforming existing methods by notable margins. Through extensive experiments, we demonstrate that strategic modality curation and tailored training protocols are pivotal for robust cross-modal representation learning. This work not only advances MIR performance but also provides a foundational blueprint for future research in multimodal systems. Our project is available at https://friedrichor.github.io/projects/UNITE.
PDF52December 4, 2025