ChatPaper.aiChatPaper

FABLE : Récupération Adaptative Bi-Parcours Améliorée par LLM et Basée sur les Forêts pour le Raisonnement Multi-Document

FABLE: Forest-Based Adaptive Bi-Path LLM-Enhanced Retrieval for Multi-Document Reasoning

January 26, 2026
papers.authors: Lin Sun, Linglin Zhang, Jingang Huang, Change Jia, Zhengwei Cheng, Xiangzheng Zhang
cs.AI

papers.abstract

L'expansion rapide des modèles de langage de grande taille (LLM) à contexte long a ravivé le débat sur la nécessité de la génération augmentée par retrieval (RAG). Cependant, les preuves empiriques révèlent des limitations persistantes de l'inférence à contexte long, incluant le phénomène de perte au milieu, le coût computationnel élevé et la faible extensibilité pour le raisonnement multi-documents. À l'inverse, les systèmes RAG traditionnels, bien qu'efficaces, sont limités par un retrieval plat au niveau des segments, qui introduit du bruit sémantique et ne permet pas une synthèse structurée entre documents. Nous présentons FABLE, un cadre de retrieval amélioré par LLM, bipath et adaptatif, basé sur une structure arborescente (« forest »), qui intègre les LLM à la fois dans l'organisation des connaissances et le processus de retrieval. FABLE construit des index hiérarchiques de type forêt, enrichis par un LLM, avec des structures sémantiques multi-granularités. Il emploie ensuite une stratégie bipath combinant un parcours hiérarchique guidé par LLM avec une propagation prenant en compte la structure, pour une acquisition fine de preuves, incluant un contrôle explicite du budget pour des compromis efficacité-adaptativé. Des expériences approfondies démontrent que FABLE surpasse constamment les méthodes RAG de l'état de l'art et atteint une précision comparable à l'inférence LLM en contexte complet, avec une réduction allant jusqu'à 94 % du nombre de tokens. Cela montre que les LLM à contexte long amplifient, plutôt que de remplacer entièrement, le besoin d'un retrieval structuré.
English
The rapid expansion of long-context Large Language Models (LLMs) has reignited debate on whether Retrieval-Augmented Generation (RAG) remains necessary. However, empirical evidence reveals persistent limitations of long-context inference, including the lost-in-the-middle phenomenon, high computational cost, and poor scalability for multi-document reasoning. Conversely, traditional RAG systems, while efficient, are constrained by flat chunk-level retrieval that introduces semantic noise and fails to support structured cross-document synthesis. We present FABLE, a Forest-based Adaptive Bi-path LLM-Enhanced retrieval framework that integrates LLMs into both knowledge organization and retrieval. FABLE constructs LLM-enhanced hierarchical forest indexes with multi-granularity semantic structures, then employs a bi-path strategy combining LLM-guided hierarchical traversal with structure-aware propagation for fine-grained evidence acquisition, with explicit budget control for adaptive efficiency trade-offs. Extensive experiments demonstrate that FABLE consistently outperforms SOTA RAG methods and achieves comparable accuracy to full-context LLM inference with up to 94\% token reduction, showing that long-context LLMs amplify rather than fully replace the need for structured retrieval.
PDF92January 29, 2026