ChatPaper.aiChatPaper

Laat multimodale inbedders leren wanneer ze query's moeten verrijken via adaptieve query-augmentatie.

Let Multimodal Embedders Learn When to Augment Query via Adaptive Query Augmentation

November 4, 2025
Auteurs: Wongyu Kim, Hochang Lee, Sanghak Lee, Yoonsung Kim, Jaehyun Park
cs.AI

Samenvatting

Query-augmentatie maakt zoekopdrachten betekenisvoller door aanvullende informatie aan de queries toe te voegen om relevante documenten te vinden. Recente studies hebben embedders voorgesteld op basis van Large Language Models (LLM's), die representatie voor embedding en generatie voor query-augmentatie leren in een multi-task aanpak door gebruik te maken van de generatieve capaciteiten van LLM's. Tijdens inferentie hebben deze gezamenlijk getrainde embedders query-augmentatie gevolgd door embedding uitgevoerd, met effectieve resultaten. Het augmenteren van elke query leidt echter tot aanzienlijke embeddinglatentie en kan voor sommige queries nadelig zijn voor de prestaties. Bovendien zijn eerdere methoden niet onderzocht in multimodale omgevingen. Om deze problemen aan te pakken, stellen we M-Solomon voor, een universele multimodale embedder die adaptief kan bepalen wanneer queries geaugmenteerd moeten worden. Onze aanpak deelt eerst de queries van de trainingsdatasets op datasetniveau in twee groepen in. De ene groep bevat queries die augmentatie vereisen en de andere queries die dat niet doen. Vervolgens introduceren we een syntheseproces dat geschikte augmentaties genereert voor queries die deze nodig hebben, met behulp van een krachtige Multimodal LLM (MLLM). Daarna presenteren we adaptieve query-augmentatie. Door deze stap kan M-Solomon query-augmentatie alleen uitvoeren wanneer nodig, door te leren synthetische augmentaties te genereren met het prefix /augment voor queries die deze vereisen, en de eenvoudige string /embed voor andere queries. Experimentele resultaten toonden aan dat M-Solomon niet alleen de baseline zonder augmentatie met een grote marge overtrof, maar ook de baseline die altijd augmentatie gebruikte outperformeerde, met een aanzienlijk snellere embeddinglatentie.
English
Query augmentation makes queries more meaningful by appending further information to the queries to find relevant documents. Current studies have proposed Large Language Model (LLM)-based embedders, which learn representation for embedding and generation for query augmentation in a multi-task manner by leveraging the generative capabilities of LLM. During inference, these jointly trained embedders have conducted query augmentation followed by embedding, showing effective results. However, augmenting every query leads to substantial embedding latency and query augmentation can be detrimental to performance for some queries. Also, previous methods have not been explored in multimodal environments. To tackle these problems, we propose M-Solomon, a universal multimodal embedder that can adaptively determine when to augment queries. Our approach first divides the queries of the training datasets into two groups at the dataset level. One includes queries that require augmentation and the other includes queries that do not. Then, we introduces a synthesis process that generates appropriate augmentations for queries that require them by leveraging a powerful Multimodal LLM (MLLM). Next, we present adaptive query augmentation. Through this step, M-Solomon can conduct query augmentation only when necessary by learning to generate synthetic augmentations with the prefix /augment for queries that demand them and to generate the simple string /embed for others. Experimental results showed that M-Solomon not only surpassed the baseline without augmentation by a large margin but also outperformed the baseline that always used augmentation, providing much faster embedding latency.
PDF32December 1, 2025