大規模言語モデルのためのコンテキストエンジニアリングに関する調査
A Survey of Context Engineering for Large Language Models
July 17, 2025
著者: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI
要旨
大規模言語モデル(LLM)の性能は、推論時に提供される文脈情報によって根本的に決定されます。本調査では、単純なプロンプト設計を超えて、LLMのための情報ペイロードの体系的な最適化を包含する正式な学問分野として「文脈工学(Context Engineering)」を紹介します。我々は、文脈工学をその基礎的構成要素と、それらを知的システムに統合する洗練された実装に分解する包括的な分類体系を提示します。まず、基礎的構成要素として、文脈検索と生成、文脈処理、文脈管理を検討します。次に、これらの構成要素がどのように建築的に統合され、洗練されたシステム実装(検索拡張生成(RAG)、メモリシステムとツール統合推論、マルチエージェントシステム)が作成されるかを探ります。1300以上の研究論文を体系的に分析することで、本調査はこの分野の技術的ロードマップを確立するだけでなく、重要な研究ギャップを明らかにします。それは、モデル能力間の根本的な非対称性です。高度な文脈工学によって強化された現在のモデルは、複雑な文脈を理解する際に顕著な熟練度を示す一方で、同等に洗練された長文の出力を生成する際には明らかな制限を示します。このギャップを埋めることが、今後の研究における重要な優先事項です。最終的に、本調査は、文脈認識AIを推進する研究者とエンジニアの両方にとって統一されたフレームワークを提供します。
English
The performance of Large Language Models (LLMs) is fundamentally determined
by the contextual information provided during inference. This survey introduces
Context Engineering, a formal discipline that transcends simple prompt design
to encompass the systematic optimization of information payloads for LLMs. We
present a comprehensive taxonomy decomposing Context Engineering into its
foundational components and the sophisticated implementations that integrate
them into intelligent systems. We first examine the foundational components:
context retrieval and generation, context processing and context management. We
then explore how these components are architecturally integrated to create
sophisticated system implementations: retrieval-augmented generation (RAG),
memory systems and tool-integrated reasoning, and multi-agent systems. Through
this systematic analysis of over 1300 research papers, our survey not only
establishes a technical roadmap for the field but also reveals a critical
research gap: a fundamental asymmetry exists between model capabilities. While
current models, augmented by advanced context engineering, demonstrate
remarkable proficiency in understanding complex contexts, they exhibit
pronounced limitations in generating equally sophisticated, long-form outputs.
Addressing this gap is a defining priority for future research. Ultimately,
this survey provides a unified framework for both researchers and engineers
advancing context-aware AI.