ChatPaper.aiChatPaper

UniversalRAG: Генерация с расширением поиска на основе множества корпусов с разнообразными модальностями и уровнями детализации

UniversalRAG: Retrieval-Augmented Generation over Multiple Corpora with Diverse Modalities and Granularities

April 29, 2025
Авторы: Woongyeong Yeo, Kangsan Kim, Soyeong Jeong, Jinheon Baek, Sung Ju Hwang
cs.AI

Аннотация

Метод генерации с усилением поиска (Retrieval-Augmented Generation, RAG) продемонстрировал значительный потенциал в повышении фактической точности, обогащая ответы модели внешними знаниями, релевантными запросам. Однако большинство существующих подходов RAG ограничиваются текстовыми корпусами, и хотя недавние работы расширили RAG на другие модальности, такие как изображения и видео, они обычно работают с корпусами, специфичными для одной модальности. В то же время реальные запросы сильно различаются по типу требуемых знаний, что не может быть охвачено одним типом источника знаний. Для решения этой проблемы мы представляем UniversalRAG — новый RAG-фреймворк, предназначенный для извлечения и интеграции знаний из гетерогенных источников с различными модальностями и уровнями детализации. В частности, основываясь на наблюдении, что принудительное объединение всех модальностей в единое пространство представлений, полученное из одного общего корпуса, вызывает разрыв модальностей, при котором поиск склонен отдавать предпочтение элементам той же модальности, что и запрос, мы предлагаем механизм маршрутизации с учетом модальностей, который динамически определяет наиболее подходящий корпус для конкретной модальности и выполняет целенаправленный поиск в нем. Кроме того, помимо модальностей, мы организуем каждую модальность на несколько уровней детализации, что позволяет проводить точный поиск, адаптированный к сложности и объему запроса. Мы проверяем UniversalRAG на 8 тестовых наборах, охватывающих несколько модальностей, демонстрируя его превосходство над подходами, специфичными для одной модальности, и унифицированными базовыми методами.
English
Retrieval-Augmented Generation (RAG) has shown substantial promise in improving factual accuracy by grounding model responses with external knowledge relevant to queries. However, most existing RAG approaches are limited to a text-only corpus, and while recent efforts have extended RAG to other modalities such as images and videos, they typically operate over a single modality-specific corpus. In contrast, real-world queries vary widely in the type of knowledge they require, which a single type of knowledge source cannot address. To address this, we introduce UniversalRAG, a novel RAG framework designed to retrieve and integrate knowledge from heterogeneous sources with diverse modalities and granularities. Specifically, motivated by the observation that forcing all modalities into a unified representation space derived from a single combined corpus causes a modality gap, where the retrieval tends to favor items from the same modality as the query, we propose a modality-aware routing mechanism that dynamically identifies the most appropriate modality-specific corpus and performs targeted retrieval within it. Also, beyond modality, we organize each modality into multiple granularity levels, enabling fine-tuned retrieval tailored to the complexity and scope of the query. We validate UniversalRAG on 8 benchmarks spanning multiple modalities, showing its superiority over modality-specific and unified baselines.

Summary

AI-Generated Summary

PDF351April 30, 2025