Eine Übersicht über Context Engineering für Large Language Models
A Survey of Context Engineering for Large Language Models
July 17, 2025
papers.authors: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI
papers.abstract
Die Leistung von Large Language Models (LLMs) wird grundlegend durch die während der Inferenz bereitgestellten kontextuellen Informationen bestimmt. Diese Übersicht führt Context Engineering ein, eine formale Disziplin, die über einfaches Prompt-Design hinausgeht und die systematische Optimierung von Informationsnutzlasten für LLMs umfasst. Wir präsentieren eine umfassende Taxonomie, die Context Engineering in seine grundlegenden Komponenten und die anspruchsvollen Implementierungen, die sie in intelligente Systeme integrieren, zerlegt. Zunächst untersuchen wir die grundlegenden Komponenten: Kontextabruf und -generierung, Kontextverarbeitung und Kontextmanagement. Anschließend erforschen wir, wie diese Komponenten architektonisch integriert werden, um anspruchsvolle Systemimplementierungen zu schaffen: retrieval-augmented generation (RAG), Speichersysteme und werkzeugintegriertes Denken sowie Multi-Agenten-Systeme. Durch diese systematische Analyse von über 1300 Forschungsarbeiten etabliert unsere Übersicht nicht nur einen technischen Fahrplan für das Feld, sondern deckt auch eine kritische Forschungslücke auf: Es besteht eine grundlegende Asymmetrie zwischen den Modellfähigkeiten. Während aktuelle Modelle, unterstützt durch fortschrittliches Context Engineering, bemerkenswerte Fähigkeiten im Verständnis komplexer Kontexte zeigen, weisen sie deutliche Einschränkungen bei der Generierung ebenso anspruchsvoller, langformatiger Ausgaben auf. Die Behebung dieser Lücke ist eine entscheidende Priorität für zukünftige Forschung. Letztendlich bietet diese Übersicht einen einheitlichen Rahmen sowohl für Forscher als auch für Ingenieure, die kontextbewusste KI vorantreiben.
English
The performance of Large Language Models (LLMs) is fundamentally determined
by the contextual information provided during inference. This survey introduces
Context Engineering, a formal discipline that transcends simple prompt design
to encompass the systematic optimization of information payloads for LLMs. We
present a comprehensive taxonomy decomposing Context Engineering into its
foundational components and the sophisticated implementations that integrate
them into intelligent systems. We first examine the foundational components:
context retrieval and generation, context processing and context management. We
then explore how these components are architecturally integrated to create
sophisticated system implementations: retrieval-augmented generation (RAG),
memory systems and tool-integrated reasoning, and multi-agent systems. Through
this systematic analysis of over 1300 research papers, our survey not only
establishes a technical roadmap for the field but also reveals a critical
research gap: a fundamental asymmetry exists between model capabilities. While
current models, augmented by advanced context engineering, demonstrate
remarkable proficiency in understanding complex contexts, they exhibit
pronounced limitations in generating equally sophisticated, long-form outputs.
Addressing this gap is a defining priority for future research. Ultimately,
this survey provides a unified framework for both researchers and engineers
advancing context-aware AI.