ChatPaper.aiChatPaper

FREESON: Razonamiento Aumentado por Recuperación sin Recuperador mediante MCTS de Travesía de Corpus

FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS

May 22, 2025
Autores: Chaeeun Kim, Seungone Kim
cs.AI

Resumen

Los Modelos de Razonamiento a Gran Escala (LRMs, por sus siglas en inglés) han demostrado capacidades notables en el razonamiento de múltiples pasos y en la invocación de motores de búsqueda en los momentos adecuados. Sin embargo, los enfoques existentes de razonamiento aumentado con recuperación dependen de modelos de recuperación separados, limitando el papel del LRM en la recuperación a decidir cuándo recuperar y cómo consultar. Esta separación no solo incrementa los costos de hardware y operativos, sino que también conduce a errores en el proceso de recuperación debido al cuello de botella de representación, un fenómeno en el que el espacio de incrustación del recuperador no es lo suficientemente expresivo para satisfacer los requisitos del generador. Para abordar esto, cambiamos nuestra perspectiva del emparejamiento secuencia a secuencia a la localización de rutas que contienen respuestas dentro del corpus, y proponemos un nuevo marco llamado FREESON (Razonamiento Aumentado con Recuperación SIN Recuperador). Este marco permite que los LRMs recuperen conocimiento relevante por sí mismos al actuar tanto como generador como recuperador. Para lograrlo, introducimos una variante del algoritmo MCTS especializada para la tarea de recuperación, a la que llamamos CT-MCTS (Búsqueda de Árbol de Monte Carlo con Travesía de Corpus). En este algoritmo, los LRMs recorren el corpus hacia regiones que contienen respuestas. Nuestros resultados en cinco benchmarks de preguntas y respuestas de dominio abierto, incluyendo preguntas de un solo salto y de múltiples saltos, muestran que FREESON logra una mejora promedio del 14.4% en EM y F1 sobre cuatro modelos de razonamiento de múltiples pasos con un recuperador separado, y también se desempeña de manera comparable al baseline más fuerte, superándolo en un 3% en PopQA y en un 2% en 2WikiMultihopQA.
English
Large Reasoning Models (LRMs) have demonstrated remarkable capabilities in multi-step reasoning and calling search engines at appropriate steps. However, existing retrieval-augmented reasoning approaches rely on separate retrieval models, limiting the LRM's role in retrieval to deciding when to retrieve and how to query. This separation not only increases hardware and operational costs but also leads to errors in the retrieval process due to the representation bottleneck, a phenomenon where the retriever's embedding space is not expressive enough to meet the generator's requirements. To address this, we shift our perspective from sequence-to-sequence matching to locating the answer-containing paths within the corpus, and propose a novel framework called FREESON (Retriever-FREE Retrieval-Augmented ReaSONing). This framework enables LRMs to retrieve relevant knowledge on their own by acting as both a generator and retriever. To achieve this, we introduce a variant of the MCTS algorithm specialized for the retrieval task, which we call CT-MCTS (Corpus-Traversing Monte Carlo Tree Search). In this algorithm, LRMs traverse through the corpus toward answer-containing regions. Our results on five open-domain QA benchmarks, including single-hop and multi-hop questions, show that FREESON achieves an average improvement of 14.4% in EM and F1 over four multi-step reasoning models with a separate retriever, and it also performs comparably to the strongest baseline, surpassing it by 3% on PopQA and 2WikiMultihopQA.

Summary

AI-Generated Summary

PDF22May 26, 2025