ChatPaper.aiChatPaper

Micro-Act: Mitigar el Conflicto de Conocimiento en la Respuesta a Preguntas mediante Razonamiento Autónomo Accionable

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

June 5, 2025
Autores: Nan Huo, Jinyang Li, Bowen Qin, Ge Qu, Xiaolong Li, Xiaodong Li, Chenhao Ma, Reynold Cheng
cs.AI

Resumen

Los sistemas de Generación Aumentada por Recuperación (RAG, por sus siglas en inglés) suelen enfrentarse a Conflictos de Conocimiento, donde la información externa recuperada contradice el conocimiento inherente y paramétrico de los modelos de lenguaje de gran escala (LLMs). Esto afecta negativamente el rendimiento en tareas posteriores, como la respuesta a preguntas (QA). Los enfoques existentes a menudo intentan mitigar estos conflictos comparando directamente dos fuentes de conocimiento de manera paralela, pero esto puede abrumar a los LLMs con contextos extensos o irrelevantes, dificultando su capacidad para identificar y resolver inconsistencias. Para abordar este problema, proponemos Micro-Act, un marco con un espacio de acción jerárquico que percibe automáticamente la complejidad del contexto y descompone adaptativamente cada fuente de conocimiento en una secuencia de comparaciones detalladas. Estas comparaciones se representan como pasos accionables, permitiendo un razonamiento más allá del contexto superficial. A través de experimentos exhaustivos en cinco conjuntos de datos de referencia, Micro-Act logra consistentemente un aumento significativo en la precisión de QA sobre los mejores métodos base en los 5 conjuntos de datos y 3 tipos de conflicto, especialmente en los tipos temporales y semánticos, donde todos los métodos base fallan notablemente. Más importante aún, Micro-Act exhibe un rendimiento robusto en preguntas sin conflicto simultáneamente, destacando su valor práctico en aplicaciones RAG del mundo real.
English
Retrieval-Augmented Generation (RAG) systems commonly suffer from Knowledge Conflicts, where retrieved external knowledge contradicts the inherent, parametric knowledge of large language models (LLMs). It adversely affects performance on downstream tasks such as question answering (QA). Existing approaches often attempt to mitigate conflicts by directly comparing two knowledge sources in a side-by-side manner, but this can overwhelm LLMs with extraneous or lengthy contexts, ultimately hindering their ability to identify and mitigate inconsistencies. To address this issue, we propose Micro-Act a framework with a hierarchical action space that automatically perceives context complexity and adaptively decomposes each knowledge source into a sequence of fine-grained comparisons. These comparisons are represented as actionable steps, enabling reasoning beyond the superficial context. Through extensive experiments on five benchmark datasets, Micro-Act consistently achieves significant increase in QA accuracy over state-of-the-art baselines across all 5 datasets and 3 conflict types, especially in temporal and semantic types where all baselines fail significantly. More importantly, Micro-Act exhibits robust performance on non-conflict questions simultaneously, highlighting its practical value in real-world RAG applications.
PDF31June 6, 2025