FÁBULA: Recuperación Mejorada por LLM de Doble Vía Adaptativa Basada en Bosques para el Razonamiento Multi-Documento
FABLE: Forest-Based Adaptive Bi-Path LLM-Enhanced Retrieval for Multi-Document Reasoning
January 26, 2026
Autores: Lin Sun, Linglin Zhang, Jingang Huang, Change Jia, Zhengwei Cheng, Xiangzheng Zhang
cs.AI
Resumen
La rápida expansión de los Modelos de Lenguaje a Gran Escala (LLM) de contexto largo ha reavivado el debate sobre si la Generación Aumentada por Recuperación (RAG) sigue siendo necesaria. Sin embargo, la evidencia empírica revela limitaciones persistentes en la inferencia de contexto largo, incluyendo el fenómeno de "perdido-en-el-medio", el alto costo computacional y la pobre escalabilidad para el razonamiento multi-documento. Por el contrario, los sistemas RAG tradicionales, aunque eficientes, están limitados por una recuperación plana a nivel de fragmentos que introduce ruido semántico y no logra apoyar la síntesis estructurada cruzada entre documentos.
Presentamos FABLE, un marco de recuperación mejorado por LLM de doble vía adaptativo basado en bosques, que integra LLMs tanto en la organización como en la recuperación del conocimiento. FABLE construye índices jerárquicos tipo bosque mejorados por LLM con estructuras semánticas multi-granularidad, luego emplea una estrategia de doble vía que combina un recorrido jerárquico guiado por LLM con una propagación consciente de la estructura para la adquisición de evidencia de grano fino, con un control explícito del presupuesto para compensaciones adaptativas de eficiencia.
Extensos experimentos demuestran que FABLE supera consistentemente a los métodos RAG de vanguardia (SOTA) y logra una precisión comparable a la inferencia de LLM de contexto completo con una reducción de hasta el 94% en tokens, mostrando que los LLM de contexto largo amplifican, más que reemplazan por completo, la necesidad de una recuperación estructurada.
English
The rapid expansion of long-context Large Language Models (LLMs) has reignited debate on whether Retrieval-Augmented Generation (RAG) remains necessary. However, empirical evidence reveals persistent limitations of long-context inference, including the lost-in-the-middle phenomenon, high computational cost, and poor scalability for multi-document reasoning. Conversely, traditional RAG systems, while efficient, are constrained by flat chunk-level retrieval that introduces semantic noise and fails to support structured cross-document synthesis.
We present FABLE, a Forest-based Adaptive Bi-path LLM-Enhanced retrieval framework that integrates LLMs into both knowledge organization and retrieval. FABLE constructs LLM-enhanced hierarchical forest indexes with multi-granularity semantic structures, then employs a bi-path strategy combining LLM-guided hierarchical traversal with structure-aware propagation for fine-grained evidence acquisition, with explicit budget control for adaptive efficiency trade-offs.
Extensive experiments demonstrate that FABLE consistently outperforms SOTA RAG methods and achieves comparable accuracy to full-context LLM inference with up to 94\% token reduction, showing that long-context LLMs amplify rather than fully replace the need for structured retrieval.