Raciocínio Multi-hop via Alinhamento Antecipado de Conhecimento
Multi-hop Reasoning via Early Knowledge Alignment
December 23, 2025
Autores: Yuxin Wang, Shicheng Fang, Bo Wang, Qi Luo, Xuanjing Huang, Yining Zheng, Xipeng Qiu
cs.AI
Resumo
A Geração Aumentada por Recuperação (RAG) emergiu como um paradigma poderoso para Modelos de Linguagem de Grande Porte (LLMs) abordarem consultas intensivas em conhecimento que requerem informações específicas de domínio ou atualizadas. Para lidar com questões complexas de múltiplos saltos, que são desafiadoras para a recuperação em etapa única, foram propostas abordagens RAG iterativas que incorporam aprendizagem por reforço. No entanto, os sistemas RAG iterativos existentes normalmente planejam decompor questões sem aproveitar informações sobre o corpus de recuperação disponível, levando a recuperações ineficientes e cadeias de raciocínio que se propagam em cascata para um desempenho subótimo. Neste artigo, introduzimos o Alinhamento Antecipado de Conhecimento (EKA), um módulo simples mas eficaz que alinha os LLMs com o conjunto de recuperação antes do planeamento em sistemas RAG iterativos, utilizando conhecimento recuperado contextualmente relevante. Extensos experimentos em seis conjuntos de dados RAG padrão demonstram que, ao estabelecer uma base de raciocínio mais sólida, o EKA melhora significativamente a precisão da recuperação, reduz erros em cascata e aumenta tanto o desempenho quanto a eficiência. A nossa análise a partir de uma perspetiva de entropia demonstra que a incorporação de conhecimento antecipado reduz a exploração desnecessária durante o processo de raciocínio, permitindo que o modelo se concentre de forma mais eficaz em subconjuntos de informação relevantes. Além disso, o EKA mostra-se eficaz como uma estratégia de inferência versátil e livre de treino, que escala perfeitamente para modelos grandes. Testes de generalização em diversos conjuntos de dados e corpora de recuperação confirmam a robustez da nossa abordagem. No geral, o EKA avança o estado da arte em sistemas RAG iterativos, ao mesmo tempo que ilumina a interação crítica entre o raciocínio estruturado e a exploração eficiente em frameworks aumentados por aprendizagem por reforço. O código está disponível em https://github.com/yxzwang/EarlyKnowledgeAlignment{Github}.
English
Retrieval-Augmented Generation (RAG) has emerged as a powerful paradigm for Large Language Models (LLMs) to address knowledge-intensive queries requiring domain-specific or up-to-date information. To handle complex multi-hop questions that are challenging for single-step retrieval, iterative RAG approaches incorporating reinforcement learning have been proposed. However, existing iterative RAG systems typically plan to decompose questions without leveraging information about the available retrieval corpus, leading to inefficient retrieval and reasoning chains that cascade into suboptimal performance. In this paper, we introduce Early Knowledge Alignment (EKA), a simple but effective module that aligns LLMs with retrieval set before planning in iterative RAG systems with contextually relevant retrieved knowledge. Extensive experiments on six standard RAG datasets demonstrate that by establishing a stronger reasoning foundation, EKA significantly improves retrieval precision, reduces cascading errors, and enhances both performance and efficiency. Our analysis from an entropy perspective demonstrate that incorporating early knowledge reduces unnecessary exploration during the reasoning process, enabling the model to focus more effectively on relevant information subsets. Moreover, EKA proves effective as a versatile, training-free inference strategy that scales seamlessly to large models. Generalization tests across diverse datasets and retrieval corpora confirm the robustness of our approach. Overall, EKA advances the state-of-the-art in iterative RAG systems while illuminating the critical interplay between structured reasoning and efficient exploration in reinforcement learning-augmented frameworks. The code is released at https://github.com/yxzwang/EarlyKnowledgeAlignment{Github}.