ChatPaper.aiChatPaper

MCTS-RAG: Aprimorando a Geração Aumentada por Recuperação com Busca em Árvore de Monte Carlo

MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search

March 26, 2025
Autores: Yunhai Hu, Yilun Zhao, Chen Zhao, Arman Cohan
cs.AI

Resumo

Apresentamos o MCTS-RAG, uma abordagem inovadora que aprimora as capacidades de raciocínio de modelos de linguagem pequenos em tarefas intensivas em conhecimento, utilizando geração aumentada por recuperação (RAG) para fornecer contexto relevante e a Busca em Árvore de Monte Carlo (MCTS) para refinar caminhos de raciocínio. O MCTS-RAG integra dinamicamente a recuperação e o raciocínio por meio de um processo iterativo de tomada de decisão. Diferentemente dos métodos RAG padrão, que geralmente recuperam informações de forma independente do raciocínio e, portanto, integram o conhecimento de maneira subótima, ou do raciocínio MCTS convencional, que depende exclusivamente do conhecimento interno do modelo sem fatos externos, o MCTS-RAG combina raciocínio estruturado com recuperação adaptativa. Essa abordagem integrada melhora a tomada de decisões, reduz alucinações e garante maior precisão factual e consistência nas respostas. Os resultados experimentais em diversos conjuntos de dados de raciocínio e intensivos em conhecimento (ou seja, ComplexWebQA, GPQA e FoolMeTwice) mostram que nosso método permite que modelos de linguagem de pequena escala alcancem desempenho comparável a LLMs de ponta, como o GPT-4, ao escalar efetivamente o cálculo no tempo de inferência, estabelecendo um novo padrão para o raciocínio em modelos de pequena escala.
English
We introduce MCTS-RAG, a novel approach that enhances the reasoning capabilities of small language models on knowledge-intensive tasks by leveraging retrieval-augmented generation (RAG) to provide relevant context and Monte Carlo Tree Search (MCTS) to refine reasoning paths. MCTS-RAG dynamically integrates retrieval and reasoning through an iterative decision-making process. Unlike standard RAG methods, which typically retrieve information independently from reasoning and thus integrate knowledge suboptimally, or conventional MCTS reasoning, which depends solely on internal model knowledge without external facts, MCTS-RAG combines structured reasoning with adaptive retrieval. This integrated approach enhances decision-making, reduces hallucinations, and ensures improved factual accuracy and response consistency. The experimental results on multiple reasoning and knowledge-intensive datasets datasets (i.e., ComplexWebQA, GPQA, and FoolMeTwice) show that our method enables small-scale LMs to achieve performance comparable to frontier LLMs like GPT-4o by effectively scaling inference-time compute, setting a new standard for reasoning in small-scale models.

Summary

AI-Generated Summary

PDF102March 27, 2025