FREESON : Raisonnement Augmenté par Récupération sans Récupérateur via MCTS de Traversée de Corpus
FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS
May 22, 2025
Auteurs: Chaeeun Kim, Seungone Kim
cs.AI
Résumé
Les modèles de raisonnement à grande échelle (Large Reasoning Models, LRMs) ont démontré des capacités remarquables dans le raisonnement multi-étapes et l'utilisation de moteurs de recherche aux étapes appropriées. Cependant, les approches existantes de raisonnement augmenté par récupération reposent sur des modèles de récupération séparés, limitant le rôle du LRM dans la récupération à décider quand récupérer et comment formuler les requêtes. Cette séparation non seulement augmente les coûts matériels et opérationnels, mais entraîne également des erreurs dans le processus de récupération en raison du goulot d'étranglement de représentation, un phénomène où l'espace d'encodage du récupérateur n'est pas suffisamment expressif pour répondre aux exigences du générateur. Pour résoudre ce problème, nous changeons de perspective en passant de la correspondance séquence-à-séquence à la localisation des chemins contenant la réponse dans le corpus, et proposons un nouveau cadre appelé FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). Ce cadre permet aux LRMs de récupérer les connaissances pertinentes par eux-mêmes en agissant à la fois comme générateur et récupérateur. Pour y parvenir, nous introduisons une variante de l'algorithme MCTS spécialisée pour la tâche de récupération, que nous appelons CT-MCTS (Corpus-Traversing Monte Carlo Tree Search). Dans cet algorithme, les LRMs parcourent le corpus vers les régions contenant les réponses. Nos résultats sur cinq benchmarks de questions-réponses à domaine ouvert, incluant des questions à saut unique et multi-sauts, montrent que FREESON obtient une amélioration moyenne de 14,4 % en EM et F1 par rapport à quatre modèles de raisonnement multi-étapes avec un récupérateur séparé, et il performe également de manière comparable au modèle de référence le plus fort, le surpassant de 3 % sur PopQA et de 2 % sur 2WikiMultihopQA.
English
Large Reasoning Models (LRMs) have demonstrated remarkable capabilities in
multi-step reasoning and calling search engines at appropriate steps. However,
existing retrieval-augmented reasoning approaches rely on separate retrieval
models, limiting the LRM's role in retrieval to deciding when to retrieve and
how to query. This separation not only increases hardware and operational costs
but also leads to errors in the retrieval process due to the representation
bottleneck, a phenomenon where the retriever's embedding space is not
expressive enough to meet the generator's requirements. To address this, we
shift our perspective from sequence-to-sequence matching to locating the
answer-containing paths within the corpus, and propose a novel framework called
FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). This framework enables
LRMs to retrieve relevant knowledge on their own by acting as both a generator
and retriever. To achieve this, we introduce a variant of the MCTS algorithm
specialized for the retrieval task, which we call CT-MCTS (Corpus-Traversing
Monte Carlo Tree Search). In this algorithm, LRMs traverse through the corpus
toward answer-containing regions. Our results on five open-domain QA
benchmarks, including single-hop and multi-hop questions, show that FREESON
achieves an average improvement of 14.4% in EM and F1 over four multi-step
reasoning models with a separate retriever, and it also performs comparably to
the strongest baseline, surpassing it by 3% on PopQA and 2WikiMultihopQA.Summary
AI-Generated Summary