FABLE: 다중 문서 추론을 위한 포레스트 기반 적응형 이중 경로 LLM 향상 검색
FABLE: Forest-Based Adaptive Bi-Path LLM-Enhanced Retrieval for Multi-Document Reasoning
January 26, 2026
저자: Lin Sun, Linglin Zhang, Jingang Huang, Change Jia, Zhengwei Cheng, Xiangzheng Zhang
cs.AI
초록
장문 맥락 대규모 언어 모델(LLM)의 급속한 확장은 검색 증강 생성(RAG)의 필요성에 대한 논쟁을 다시 불러일으켰습니다. 그러나 실증적 연구 결과에 따르면, 장문 맥락 추론에는 여전히 '중간 정보 소실' 현상, 높은 계산 비용, 다중 문서 추론의 낮은 확장성 등의 한계가 존재합니다. 반면, 전통적인 RAG 시스템은 효율적이지만 평편한 청크 수준 검색에 제한되어 의미론적 잡음을 유발하고 구조화된 교차 문서 통합을 지원하지 못합니다.
본 연구에서는 LLM을 지식 구성 및 검색 과정 모두에 통합하는 Forest 기반 적응형 이중 경로 LLM 향상 검색 프레임워크인 FABLE을 제안합니다. FABLE은 다중 세분성 의미 구조를 가진 LLM 향상 계층적 숲 인덱스를 구축한 후, LLM 유도 계층적 탐색과 구조 인식 전파를 결합한 이중 경로 전략을 통해 세밀한 증거 획득을 수행하며, 명시적 예산 제어를 통해 적응형 효율성 균형을 달성합니다.
폭넓은 실험 결과, FABLE은 SOTA RAG 방법들을 일관되게 능가하며 최대 94%의 토큰 감소로 전체 맥락 LLM 추론과 비슷한 정확도를 달성함으로써, 장문 맥락 LLM이 구조화된 검색의 필요성을 대체하기보다 오히려 증폭시킨다는 점을 보여줍니다.
English
The rapid expansion of long-context Large Language Models (LLMs) has reignited debate on whether Retrieval-Augmented Generation (RAG) remains necessary. However, empirical evidence reveals persistent limitations of long-context inference, including the lost-in-the-middle phenomenon, high computational cost, and poor scalability for multi-document reasoning. Conversely, traditional RAG systems, while efficient, are constrained by flat chunk-level retrieval that introduces semantic noise and fails to support structured cross-document synthesis.
We present FABLE, a Forest-based Adaptive Bi-path LLM-Enhanced retrieval framework that integrates LLMs into both knowledge organization and retrieval. FABLE constructs LLM-enhanced hierarchical forest indexes with multi-granularity semantic structures, then employs a bi-path strategy combining LLM-guided hierarchical traversal with structure-aware propagation for fine-grained evidence acquisition, with explicit budget control for adaptive efficiency trade-offs.
Extensive experiments demonstrate that FABLE consistently outperforms SOTA RAG methods and achieves comparable accuracy to full-context LLM inference with up to 94\% token reduction, showing that long-context LLMs amplify rather than fully replace the need for structured retrieval.