FREESON: Retriever-Vrije Retrieval-Versterkte Redenering via Corpus-Doorlopen MCTS
FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS
May 22, 2025
Auteurs: Chaeeun Kim, Seungone Kim
cs.AI
Samenvatting
Large Reasoning Models (LRMs) hebben opmerkelijke capaciteiten getoond in
meerstaps redeneren en het op de juiste momenten aanroepen van zoekmachines.
Echter, bestaande retrieval-augmented reasoning benaderingen vertrouwen op
afzonderlijke retrieval-modellen, wat de rol van de LRM in retrieval beperkt tot
het beslissen wanneer te retrieven en hoe te queryen. Deze scheiding verhoogt
niet alleen de hardware- en operationele kosten, maar leidt ook tot fouten in
het retrievalproces vanwege de representatiebottleneck, een fenomeen waarbij de
embeddingruimte van de retriever niet expressief genoeg is om aan de eisen van
de generator te voldoen. Om dit aan te pakken, verschuiven we ons perspectief
van sequence-to-sequence matching naar het lokaliseren van antwoordbevattende
paden binnen het corpus, en stellen we een nieuw framework voor genaamd
FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). Dit framework stelt LRMs
in staat om relevante kennis zelf te retrieven door zowel als generator als
retriever op te treden. Om dit te bereiken, introduceren we een variant van het
MCTS-algoritme gespecialiseerd voor de retrievaltaak, dat we CT-MCTS (Corpus-
Traversing Monte Carlo Tree Search) noemen. In dit algoritme doorlopen LRMs het
corpus richting antwoordbevattende regio's. Onze resultaten op vijf open-domain
QA benchmarks, inclusief single-hop en multi-hop vragen, laten zien dat FREESON
een gemiddelde verbetering van 14,4% in EM en F1 behaalt ten opzichte van vier
meerstaps redeneermodellen met een aparte retriever, en het presteert ook
vergelijkbaar met de sterkste baseline, die het met 3% overtreft op PopQA en
2WikiMultihopQA.
English
Large Reasoning Models (LRMs) have demonstrated remarkable capabilities in
multi-step reasoning and calling search engines at appropriate steps. However,
existing retrieval-augmented reasoning approaches rely on separate retrieval
models, limiting the LRM's role in retrieval to deciding when to retrieve and
how to query. This separation not only increases hardware and operational costs
but also leads to errors in the retrieval process due to the representation
bottleneck, a phenomenon where the retriever's embedding space is not
expressive enough to meet the generator's requirements. To address this, we
shift our perspective from sequence-to-sequence matching to locating the
answer-containing paths within the corpus, and propose a novel framework called
FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). This framework enables
LRMs to retrieve relevant knowledge on their own by acting as both a generator
and retriever. To achieve this, we introduce a variant of the MCTS algorithm
specialized for the retrieval task, which we call CT-MCTS (Corpus-Traversing
Monte Carlo Tree Search). In this algorithm, LRMs traverse through the corpus
toward answer-containing regions. Our results on five open-domain QA
benchmarks, including single-hop and multi-hop questions, show that FREESON
achieves an average improvement of 14.4% in EM and F1 over four multi-step
reasoning models with a separate retriever, and it also performs comparably to
the strongest baseline, surpassing it by 3% on PopQA and 2WikiMultihopQA.