FABLE: Recupero Adattivo a Doppio Percorso Basato su Foreste e Potenziato da LLM per il Ragionamento su Multi-Documento
FABLE: Forest-Based Adaptive Bi-Path LLM-Enhanced Retrieval for Multi-Document Reasoning
January 26, 2026
Autori: Lin Sun, Linglin Zhang, Jingang Huang, Change Jia, Zhengwei Cheng, Xiangzheng Zhang
cs.AI
Abstract
La rapida espansione dei Large Language Model (LLM) a contesto lungo ha riacceso il dibattito sulla necessità della Generazione Aumentata dal Recupero (RAG). Tuttavia, evidenze empiriche rivelano persistenti limitazioni dell'inferenza a contesto lungo, incluso il fenomeno del "lost-in-the-middle", l'alto costo computazionale e la scarsa scalabilità per il ragionamento su più documenti. Al contrario, i tradizionali sistemi RAG, sebbene efficienti, sono limitati da un recupero piatto a livello di segmenti (chunk) che introduce rumore semantico e non supporta una sintesi strutturata tra documenti.
Presentiamo FABLE, un framework di recupero bi-direzionale adattativo e potenziato da LLM, basato su una struttura ad albero (forest), che integra gli LLM sia nell'organizzazione della conoscenza che nel recupero. FABLE costruisce indici gerarchici a foresta potenziati da LLM con strutture semantiche multi-granularità, quindi impiega una strategia bi-direzionale che combina una traversata gerarchica guidata da LLM con una propagazione consapevole della struttura per un'acquisizione fine delle evidenze, con un controllo esplicito del budget per compromessi adattivi di efficienza.
Esperimenti estensivi dimostrano che FABLE supera costantemente i metodi RAG allo stato dell'arte e raggiunge un'accuratezza paragonabile all'inferenza LLM a contesto completo con una riduzione fino al 94% dei token, mostrando come gli LLM a contesto lungo amplifichino, piuttosto che sostituire completamente, la necessità di un recupero strutturato.
English
The rapid expansion of long-context Large Language Models (LLMs) has reignited debate on whether Retrieval-Augmented Generation (RAG) remains necessary. However, empirical evidence reveals persistent limitations of long-context inference, including the lost-in-the-middle phenomenon, high computational cost, and poor scalability for multi-document reasoning. Conversely, traditional RAG systems, while efficient, are constrained by flat chunk-level retrieval that introduces semantic noise and fails to support structured cross-document synthesis.
We present FABLE, a Forest-based Adaptive Bi-path LLM-Enhanced retrieval framework that integrates LLMs into both knowledge organization and retrieval. FABLE constructs LLM-enhanced hierarchical forest indexes with multi-granularity semantic structures, then employs a bi-path strategy combining LLM-guided hierarchical traversal with structure-aware propagation for fine-grained evidence acquisition, with explicit budget control for adaptive efficiency trade-offs.
Extensive experiments demonstrate that FABLE consistently outperforms SOTA RAG methods and achieves comparable accuracy to full-context LLM inference with up to 94\% token reduction, showing that long-context LLMs amplify rather than fully replace the need for structured retrieval.