ChatPaper.aiChatPaper

FREESON: Retriever-freie, retrieval-augmentierte Argumentation durch korpusdurchquerendes MCTS

FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS

May 22, 2025
Autoren: Chaeeun Kim, Seungone Kim
cs.AI

Zusammenfassung

Große Reasoning-Modelle (LRMs) haben bemerkenswerte Fähigkeiten bei der mehrstufigen Argumentation und dem Aufrufen von Suchmaschinen zu geeigneten Zeitpunkten gezeigt. Bisherige retrieval-augmentierte Reasoning-Ansätze verlassen sich jedoch auf separate Retrieval-Modelle, wodurch die Rolle des LRMs beim Retrieval auf die Entscheidung beschränkt wird, wann abgerufen und wie abgefragt werden soll. Diese Trennung erhöht nicht nur die Hardware- und Betriebskosten, sondern führt auch zu Fehlern im Retrieval-Prozess aufgrund des sogenannten Repräsentationsengpasses, einem Phänomen, bei dem der Einbettungsraum des Retrievers nicht ausdrucksstark genug ist, um die Anforderungen des Generators zu erfüllen. Um dies zu beheben, verschieben wir unsere Perspektive von der Sequenz-zu-Sequenz-Zuordnung hin zur Lokalisierung von antwortenthaltenden Pfaden innerhalb des Korpus und schlagen ein neuartiges Framework namens FREESON (Retriever-FREE Retrieval-Augmented ReaSONing) vor. Dieses Framework ermöglicht es LRMs, relevantes Wissen eigenständig abzurufen, indem sie sowohl als Generator als auch als Retriever fungieren. Um dies zu erreichen, führen wir eine Variante des MCTS-Algorithmus ein, die speziell für die Retrieval-Aufgabe entwickelt wurde und die wir CT-MCTS (Corpus-Traversing Monte Carlo Tree Search) nennen. In diesem Algorithmus durchlaufen LRMs den Korpus, um antwortenthaltende Regionen zu finden. Unsere Ergebnisse auf fünf Open-Domain-QA-Benchmarks, einschließlich Single-Hop- und Multi-Hop-Fragen, zeigen, dass FREESON eine durchschnittliche Verbesserung von 14,4 % in EM und F1 gegenüber vier mehrstufigen Reasoning-Modellen mit einem separaten Retriever erzielt und auch vergleichbar mit dem stärksten Baseline-Modell abschneidet, das es auf PopQA um 3 % und auf 2WikiMultihopQA um 2 % übertrifft.
English
Large Reasoning Models (LRMs) have demonstrated remarkable capabilities in multi-step reasoning and calling search engines at appropriate steps. However, existing retrieval-augmented reasoning approaches rely on separate retrieval models, limiting the LRM's role in retrieval to deciding when to retrieve and how to query. This separation not only increases hardware and operational costs but also leads to errors in the retrieval process due to the representation bottleneck, a phenomenon where the retriever's embedding space is not expressive enough to meet the generator's requirements. To address this, we shift our perspective from sequence-to-sequence matching to locating the answer-containing paths within the corpus, and propose a novel framework called FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). This framework enables LRMs to retrieve relevant knowledge on their own by acting as both a generator and retriever. To achieve this, we introduce a variant of the MCTS algorithm specialized for the retrieval task, which we call CT-MCTS (Corpus-Traversing Monte Carlo Tree Search). In this algorithm, LRMs traverse through the corpus toward answer-containing regions. Our results on five open-domain QA benchmarks, including single-hop and multi-hop questions, show that FREESON achieves an average improvement of 14.4% in EM and F1 over four multi-step reasoning models with a separate retriever, and it also performs comparably to the strongest baseline, surpassing it by 3% on PopQA and 2WikiMultihopQA.

Summary

AI-Generated Summary

PDF22May 26, 2025