ChatPaper.aiChatPaper

Micro-Act: Verminder Kennisconflicten in Vraagbeantwoording via Toepasbare Zelfredenering

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

June 5, 2025
Auteurs: Nan Huo, Jinyang Li, Bowen Qin, Ge Qu, Xiaolong Li, Xiaodong Li, Chenhao Ma, Reynold Cheng
cs.AI

Samenvatting

Retrieval-Augmented Generation (RAG)-systemen hebben vaak last van Kennisconflicten, waarbij opgehaalde externe kennis in tegenspraak is met de inherente, parametrische kennis van grote taalmodellen (LLM's). Dit heeft een negatieve invloed op de prestaties bij downstream taken zoals vraag-antwoord (QA). Bestaande benaderingen proberen vaak conflicten te verminderen door twee kennisbronnen direct naast elkaar te vergelijken, maar dit kan LLM's overweldigen met overbodige of langdradige contexten, wat uiteindelijk hun vermogen om inconsistenties te identificeren en te verhelpen belemmert. Om dit probleem aan te pakken, stellen we Micro-Act voor, een raamwerk met een hiërarchische actieruimte dat automatisch de complexiteit van de context waarneemt en elke kennisbron adaptief opdeelt in een reeks fijnmazige vergelijkingen. Deze vergelijkingen worden weergegeven als uitvoerbare stappen, waardoor redenering mogelijk wordt die verder gaat dan de oppervlakkige context. Door uitgebreide experimenten op vijf benchmarkdatasets behaalt Micro-Act consistent een significante toename in QA-nauwkeurigheid ten opzichte van state-of-the-art baselines op alle 5 datasets en 3 conflicttypen, vooral bij temporele en semantische typen waar alle baselines aanzienlijk tekortschieten. Belangrijker is dat Micro-Act tegelijkertijd robuuste prestaties vertoont bij niet-conflictvragen, wat het praktische nut ervan in real-world RAG-toepassingen benadrukt.
English
Retrieval-Augmented Generation (RAG) systems commonly suffer from Knowledge Conflicts, where retrieved external knowledge contradicts the inherent, parametric knowledge of large language models (LLMs). It adversely affects performance on downstream tasks such as question answering (QA). Existing approaches often attempt to mitigate conflicts by directly comparing two knowledge sources in a side-by-side manner, but this can overwhelm LLMs with extraneous or lengthy contexts, ultimately hindering their ability to identify and mitigate inconsistencies. To address this issue, we propose Micro-Act a framework with a hierarchical action space that automatically perceives context complexity and adaptively decomposes each knowledge source into a sequence of fine-grained comparisons. These comparisons are represented as actionable steps, enabling reasoning beyond the superficial context. Through extensive experiments on five benchmark datasets, Micro-Act consistently achieves significant increase in QA accuracy over state-of-the-art baselines across all 5 datasets and 3 conflict types, especially in temporal and semantic types where all baselines fail significantly. More importantly, Micro-Act exhibits robust performance on non-conflict questions simultaneously, highlighting its practical value in real-world RAG applications.
PDF31June 6, 2025