ChatPaper.aiChatPaper

Micro-Act : Atténuer les conflits de connaissances dans les systèmes de question-réponse par un raisonnement autonome actionnable

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

June 5, 2025
Auteurs: Nan Huo, Jinyang Li, Bowen Qin, Ge Qu, Xiaolong Li, Xiaodong Li, Chenhao Ma, Reynold Cheng
cs.AI

Résumé

Les systèmes de Génération Augmentée par Récupération (RAG) souffrent fréquemment de Conflits de Connaissances, où les connaissances externes récupérées contredisent les connaissances paramétriques inhérentes aux grands modèles de langage (LLMs). Cela affecte négativement les performances sur des tâches en aval telles que la réponse à des questions (QA). Les approches existantes tentent souvent d'atténuer ces conflits en comparant directement deux sources de connaissances de manière côte à côte, mais cela peut submerger les LLMs avec des contextes superflus ou trop longs, entravant finalement leur capacité à identifier et à atténuer les incohérences. Pour résoudre ce problème, nous proposons Micro-Act, un cadre avec un espace d'action hiérarchique qui perçoit automatiquement la complexité du contexte et décompose de manière adaptative chaque source de connaissances en une séquence de comparaisons fines. Ces comparaisons sont représentées comme des étapes actionnables, permettant un raisonnement au-delà du contexte superficiel. À travers des expériences approfondies sur cinq ensembles de données de référence, Micro-Act obtient systématiquement une augmentation significative de la précision en QA par rapport aux meilleures méthodes de référence sur les 5 ensembles de données et les 3 types de conflits, en particulier pour les types temporels et sémantiques où toutes les méthodes de référence échouent de manière significative. Plus important encore, Micro-Act montre une performance robuste sur les questions sans conflit simultanément, mettant en avant sa valeur pratique dans les applications RAG du monde réel.
English
Retrieval-Augmented Generation (RAG) systems commonly suffer from Knowledge Conflicts, where retrieved external knowledge contradicts the inherent, parametric knowledge of large language models (LLMs). It adversely affects performance on downstream tasks such as question answering (QA). Existing approaches often attempt to mitigate conflicts by directly comparing two knowledge sources in a side-by-side manner, but this can overwhelm LLMs with extraneous or lengthy contexts, ultimately hindering their ability to identify and mitigate inconsistencies. To address this issue, we propose Micro-Act a framework with a hierarchical action space that automatically perceives context complexity and adaptively decomposes each knowledge source into a sequence of fine-grained comparisons. These comparisons are represented as actionable steps, enabling reasoning beyond the superficial context. Through extensive experiments on five benchmark datasets, Micro-Act consistently achieves significant increase in QA accuracy over state-of-the-art baselines across all 5 datasets and 3 conflict types, especially in temporal and semantic types where all baselines fail significantly. More importantly, Micro-Act exhibits robust performance on non-conflict questions simultaneously, highlighting its practical value in real-world RAG applications.
PDF31June 6, 2025