ChatPaper.aiChatPaper

Raisonnement à sauts multiples via un alignement précoce des connaissances

Multi-hop Reasoning via Early Knowledge Alignment

December 23, 2025
papers.authors: Yuxin Wang, Shicheng Fang, Bo Wang, Qi Luo, Xuanjing Huang, Yining Zheng, Xipeng Qiu
cs.AI

papers.abstract

Le paradigme de RAG (Retrieval-Augmented Generation) s'est imposé comme une approche puissante permettant aux grands modèles de langage (LLM) de traiter des requêtes nécessitant des connaissances spécialisées ou actualisées. Pour répondre à des questions multi-saut complexes, difficiles à résoudre par une récupération unique, des approches RAG itératives intégrant l'apprentissage par renforcement ont été proposées. Cependant, les systèmes RAG itératifs existants planifient généralement la décomposition des questions sans exploiter les informations disponibles dans le corpus de récupération, ce qui entraîne des chaînes de raisonnement inefficaces et une dégradation des performances. Dans cet article, nous présentons l'Alignement Précoce des Connaissances (EKA), un module simple mais efficace qui aligne les LLM avec l'ensemble de récupération avant la phase de planification dans les systèmes RAG itératifs, en utilisant des connaissances contextuellement pertinentes. Des expériences approfondies sur six jeux de données RAG standards démontrent qu'en établissant une base de raisonnement plus solide, EKA améliore significativement la précision de la récupération, réduit les erreurs en cascade et améliore à la fois les performances et l'efficacité. Notre analyse sous l'angle de l'entropie montre que l'intégration précoce de connaissances réduit l'exploration superflue durant le processus de raisonnement, permettant au modèle de se concentrer plus efficacement sur les sous-ensembles informationnels pertinents. De plus, EKA s'avère efficace en tant que stratégie d'inférence polyvalente et sans apprentissage, s'adaptant parfaitement aux grands modèles. Des tests de généralisation sur divers jeux de données et corpus de récupération confirment la robustesse de notre approche. Globalement, EKA fait progresser l'état de l'art des systèmes RAG itératifs tout en éclairant l'interaction cruciale entre le raisonnement structuré et l'exploration efficace dans les cadres augmentés par l'apprentissage par renforcement. Le code est disponible à l'adresse https://github.com/yxzwang/EarlyKnowledgeAlignment{Github}.
English
Retrieval-Augmented Generation (RAG) has emerged as a powerful paradigm for Large Language Models (LLMs) to address knowledge-intensive queries requiring domain-specific or up-to-date information. To handle complex multi-hop questions that are challenging for single-step retrieval, iterative RAG approaches incorporating reinforcement learning have been proposed. However, existing iterative RAG systems typically plan to decompose questions without leveraging information about the available retrieval corpus, leading to inefficient retrieval and reasoning chains that cascade into suboptimal performance. In this paper, we introduce Early Knowledge Alignment (EKA), a simple but effective module that aligns LLMs with retrieval set before planning in iterative RAG systems with contextually relevant retrieved knowledge. Extensive experiments on six standard RAG datasets demonstrate that by establishing a stronger reasoning foundation, EKA significantly improves retrieval precision, reduces cascading errors, and enhances both performance and efficiency. Our analysis from an entropy perspective demonstrate that incorporating early knowledge reduces unnecessary exploration during the reasoning process, enabling the model to focus more effectively on relevant information subsets. Moreover, EKA proves effective as a versatile, training-free inference strategy that scales seamlessly to large models. Generalization tests across diverse datasets and retrieval corpora confirm the robustness of our approach. Overall, EKA advances the state-of-the-art in iterative RAG systems while illuminating the critical interplay between structured reasoning and efficient exploration in reinforcement learning-augmented frameworks. The code is released at https://github.com/yxzwang/EarlyKnowledgeAlignment{Github}.
PDF41December 26, 2025