ChatPaper.aiChatPaper

FÁBULA: Recuperação Florestal Adaptativa Baseada em Caminhos Duplos Aprimorada por LLM para Raciocínio em Múltiplos Documentos

FABLE: Forest-Based Adaptive Bi-Path LLM-Enhanced Retrieval for Multi-Document Reasoning

January 26, 2026
Autores: Lin Sun, Linglin Zhang, Jingang Huang, Change Jia, Zhengwei Cheng, Xiangzheng Zhang
cs.AI

Resumo

A rápida expansão dos modelos de linguagem de grande porte (LLMs) de contexto longo reacendeu o debate sobre se a Geração Aumentada por Recuperação (RAG) ainda é necessária. No entanto, evidências empíricas revelam limitações persistentes da inferência de contexto longo, incluindo o fenômeno "perdido-no-meio", o alto custo computacional e a baixa escalabilidade para o raciocínio com múltiplos documentos. Por outro lado, os sistemas tradicionais de RAG, embora eficientes, são limitados pela recuperação em nível de fragmentos ("chunks"), que introduz ruído semântico e não suporta uma síntese estruturada entre documentos. Apresentamos o FABLE, uma estrutura de recuperação de caminho duplo adaptativa e baseada em floresta, aprimorada por LLM, que integra LLMs tanto na organização quanto na recuperação do conhecimento. O FABLE constrói índices hierárquicos em forma de floresta, aprimorados por LLM, com estruturas semânticas de múltiplas granularidades. Em seguida, emprega uma estratégia de caminho duplo que combina a travessia hierárquica guiada por LLM com a propagação consciente da estrutura para uma aquisição de evidências de granularidade fina, com controle explícito de orçamento para compensações adaptativas de eficiência. Extensos experimentos demonstram que o FABLE supera consistentemente os métodos de RAG estado da arte (SOTA) e alcança uma precisão comparável à inferência de LLM de contexto completo com até 94% de redução de tokens, mostrando que os LLMs de contexto longo amplificam, e não substituem totalmente, a necessidade de recuperação estruturada.
English
The rapid expansion of long-context Large Language Models (LLMs) has reignited debate on whether Retrieval-Augmented Generation (RAG) remains necessary. However, empirical evidence reveals persistent limitations of long-context inference, including the lost-in-the-middle phenomenon, high computational cost, and poor scalability for multi-document reasoning. Conversely, traditional RAG systems, while efficient, are constrained by flat chunk-level retrieval that introduces semantic noise and fails to support structured cross-document synthesis. We present FABLE, a Forest-based Adaptive Bi-path LLM-Enhanced retrieval framework that integrates LLMs into both knowledge organization and retrieval. FABLE constructs LLM-enhanced hierarchical forest indexes with multi-granularity semantic structures, then employs a bi-path strategy combining LLM-guided hierarchical traversal with structure-aware propagation for fine-grained evidence acquisition, with explicit budget control for adaptive efficiency trade-offs. Extensive experiments demonstrate that FABLE consistently outperforms SOTA RAG methods and achieves comparable accuracy to full-context LLM inference with up to 94\% token reduction, showing that long-context LLMs amplify rather than fully replace the need for structured retrieval.
PDF113February 8, 2026