ChatPaper.aiChatPaper

UniversalRAG: Geração Aumentada por Recuperação sobre Múltiplos Corpora com Diferentes Modalidades e Granularidades

UniversalRAG: Retrieval-Augmented Generation over Multiple Corpora with Diverse Modalities and Granularities

April 29, 2025
Autores: Woongyeong Yeo, Kangsan Kim, Soyeong Jeong, Jinheon Baek, Sung Ju Hwang
cs.AI

Resumo

A Geração Aumentada por Recuperação (RAG, do inglês Retrieval-Augmented Generation) tem demonstrado um potencial significativo para melhorar a precisão factual ao fundamentar as respostas do modelo com conhecimento externo relevante para as consultas. No entanto, a maioria das abordagens existentes de RAG limita-se a um corpus exclusivamente textual, e embora esforços recentes tenham estendido o RAG para outras modalidades, como imagens e vídeos, eles geralmente operam sobre um corpus específico de uma única modalidade. Em contraste, as consultas do mundo real variam amplamente no tipo de conhecimento que exigem, o qual uma única fonte de conhecimento não pode atender. Para resolver isso, introduzimos o UniversalRAG, uma nova estrutura RAG projetada para recuperar e integrar conhecimento de fontes heterogêneas com diversas modalidades e granularidades. Especificamente, motivados pela observação de que forçar todas as modalidades em um espaço de representação unificado derivado de um único corpus combinado causa uma lacuna de modalidade, onde a recuperação tende a favorecer itens da mesma modalidade da consulta, propomos um mecanismo de roteamento consciente da modalidade que identifica dinamicamente o corpus específico da modalidade mais apropriado e realiza uma recuperação direcionada dentro dele. Além disso, além da modalidade, organizamos cada modalidade em múltiplos níveis de granularidade, permitindo uma recuperação ajustada à complexidade e ao escopo da consulta. Validamos o UniversalRAG em 8 benchmarks abrangendo múltiplas modalidades, demonstrando sua superioridade em relação a baselines específicos de modalidade e unificados.
English
Retrieval-Augmented Generation (RAG) has shown substantial promise in improving factual accuracy by grounding model responses with external knowledge relevant to queries. However, most existing RAG approaches are limited to a text-only corpus, and while recent efforts have extended RAG to other modalities such as images and videos, they typically operate over a single modality-specific corpus. In contrast, real-world queries vary widely in the type of knowledge they require, which a single type of knowledge source cannot address. To address this, we introduce UniversalRAG, a novel RAG framework designed to retrieve and integrate knowledge from heterogeneous sources with diverse modalities and granularities. Specifically, motivated by the observation that forcing all modalities into a unified representation space derived from a single combined corpus causes a modality gap, where the retrieval tends to favor items from the same modality as the query, we propose a modality-aware routing mechanism that dynamically identifies the most appropriate modality-specific corpus and performs targeted retrieval within it. Also, beyond modality, we organize each modality into multiple granularity levels, enabling fine-tuned retrieval tailored to the complexity and scope of the query. We validate UniversalRAG on 8 benchmarks spanning multiple modalities, showing its superiority over modality-specific and unified baselines.

Summary

AI-Generated Summary

PDF371April 30, 2025