Генерация с усилением поиска при наличии противоречивых данных
Retrieval-Augmented Generation with Conflicting Evidence
April 17, 2025
Авторы: Han Wang, Archiki Prasad, Elias Stengel-Eskin, Mohit Bansal
cs.AI
Аннотация
Агенты на основе больших языковых моделей (LLM) всё чаще используют генерацию, усиленную поиском (RAG), чтобы повысить фактическую точность своих ответов. Однако на практике такие системы часто сталкиваются с необходимостью обработки неоднозначных пользовательских запросов и потенциально противоречивой информации из нескольких источников, одновременно подавляя неточные данные из зашумлённых или нерелевантных документов. Предыдущие работы, как правило, изучали и решали эти проблемы изолированно, рассматривая только один аспект за раз, например, обработку неоднозначности или устойчивость к шуму и дезинформации. Мы же рассматриваем несколько факторов одновременно, предлагая (i) RAMDocs (Retrieval with Ambiguity and Misinformation in Documents) — новый набор данных, моделирующий сложные и реалистичные сценарии с противоречивыми доказательствами для пользовательского запроса, включая неоднозначность, дезинформацию и шум; и (ii) MADAM-RAG — многоагентный подход, в котором агенты LLM обсуждают достоинства ответа в несколько раундов, позволяя агрегатору собирать ответы, соответствующие разобранным сущностям, одновременно отбрасывая дезинформацию и шум, тем самым совместно решая различные источники конфликтов. Мы демонстрируем эффективность MADAM-RAG, используя как закрытые, так и открытые модели на AmbigDocs — где требуется представить все допустимые ответы для неоднозначных запросов — улучшая результаты сильных базовых RAG на 11,40%, и на FaithEval — где требуется подавление дезинформации — где мы улучшаем результат на 15,80% (абсолютно) с моделью Llama3.3-70B-Instruct. Кроме того, мы обнаруживаем, что RAMDocs представляет собой вызов для существующих базовых RAG (Llama3.3-70B-Instruct достигает только 32,60 точного совпадения). Хотя MADAM-RAG начинает решать эти противоречивые факторы, наш анализ показывает, что значительный разрыв остаётся, особенно при увеличении уровня дисбаланса в поддерживающих доказательствах и дезинформации.
English
Large language model (LLM) agents are increasingly employing
retrieval-augmented generation (RAG) to improve the factuality of their
responses. However, in practice, these systems often need to handle ambiguous
user queries and potentially conflicting information from multiple sources
while also suppressing inaccurate information from noisy or irrelevant
documents. Prior work has generally studied and addressed these challenges in
isolation, considering only one aspect at a time, such as handling ambiguity or
robustness to noise and misinformation. We instead consider multiple factors
simultaneously, proposing (i) RAMDocs (Retrieval with Ambiguity and
Misinformation in Documents), a new dataset that simulates complex and
realistic scenarios for conflicting evidence for a user query, including
ambiguity, misinformation, and noise; and (ii) MADAM-RAG, a multi-agent
approach in which LLM agents debate over the merits of an answer over multiple
rounds, allowing an aggregator to collate responses corresponding to
disambiguated entities while discarding misinformation and noise, thereby
handling diverse sources of conflict jointly. We demonstrate the effectiveness
of MADAM-RAG using both closed and open-source models on AmbigDocs -- which
requires presenting all valid answers for ambiguous queries -- improving over
strong RAG baselines by up to 11.40% and on FaithEval -- which requires
suppressing misinformation -- where we improve by up to 15.80% (absolute) with
Llama3.3-70B-Instruct. Furthermore, we find that RAMDocs poses a challenge for
existing RAG baselines (Llama3.3-70B-Instruct only obtains 32.60 exact match
score). While MADAM-RAG begins to address these conflicting factors, our
analysis indicates that a substantial gap remains especially when increasing
the level of imbalance in supporting evidence and misinformation.Summary
AI-Generated Summary