ChatPaper.aiChatPaper

Micro-Act: Mitigar Conflitos de Conhecimento em Respostas a Perguntas por meio de Auto-Raciocínio Aplicável

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

June 5, 2025
Autores: Nan Huo, Jinyang Li, Bowen Qin, Ge Qu, Xiaolong Li, Xiaodong Li, Chenhao Ma, Reynold Cheng
cs.AI

Resumo

Os sistemas de Geração Aumentada por Recuperação (RAG, na sigla em inglês) frequentemente enfrentam o problema de Conflitos de Conhecimento, onde o conhecimento externo recuperado contradiz o conhecimento paramétrico inerente dos modelos de linguagem de grande escala (LLMs). Isso afeta negativamente o desempenho em tarefas subsequentes, como a resposta a perguntas (QA, na sigla em inglês). As abordagens existentes geralmente tentam mitigar esses conflitos comparando diretamente duas fontes de conhecimento de forma lado a lado, mas isso pode sobrecarregar os LLMs com contextos extensos ou irrelevantes, prejudicando sua capacidade de identificar e resolver inconsistências. Para resolver esse problema, propomos o Micro-Act, um framework com um espaço de ação hierárquico que percebe automaticamente a complexidade do contexto e decompõe adaptativamente cada fonte de conhecimento em uma sequência de comparações refinadas. Essas comparações são representadas como etapas acionáveis, permitindo um raciocínio que vai além do contexto superficial. Por meio de extensos experimentos em cinco conjuntos de dados de referência, o Micro-Act alcança consistentemente um aumento significativo na precisão de QA em relação às abordagens mais avançadas em todos os 5 conjuntos de dados e 3 tipos de conflito, especialmente nos tipos temporais e semânticos, onde todas as abordagens de referência falham significativamente. Mais importante ainda, o Micro-Act demonstra um desempenho robusto em perguntas sem conflito simultaneamente, destacando seu valor prático em aplicações reais de RAG.
English
Retrieval-Augmented Generation (RAG) systems commonly suffer from Knowledge Conflicts, where retrieved external knowledge contradicts the inherent, parametric knowledge of large language models (LLMs). It adversely affects performance on downstream tasks such as question answering (QA). Existing approaches often attempt to mitigate conflicts by directly comparing two knowledge sources in a side-by-side manner, but this can overwhelm LLMs with extraneous or lengthy contexts, ultimately hindering their ability to identify and mitigate inconsistencies. To address this issue, we propose Micro-Act a framework with a hierarchical action space that automatically perceives context complexity and adaptively decomposes each knowledge source into a sequence of fine-grained comparisons. These comparisons are represented as actionable steps, enabling reasoning beyond the superficial context. Through extensive experiments on five benchmark datasets, Micro-Act consistently achieves significant increase in QA accuracy over state-of-the-art baselines across all 5 datasets and 3 conflict types, especially in temporal and semantic types where all baselines fail significantly. More importantly, Micro-Act exhibits robust performance on non-conflict questions simultaneously, highlighting its practical value in real-world RAG applications.
PDF31June 6, 2025