ChatPaper.aiChatPaper

Eine Übersicht über Context Engineering für Large Language Models

A Survey of Context Engineering for Large Language Models

July 17, 2025
papers.authors: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI

papers.abstract

Die Leistung von Large Language Models (LLMs) wird grundlegend durch die während der Inferenz bereitgestellten kontextuellen Informationen bestimmt. Diese Übersicht führt Context Engineering ein, eine formale Disziplin, die über einfaches Prompt-Design hinausgeht und die systematische Optimierung von Informationsnutzlasten für LLMs umfasst. Wir präsentieren eine umfassende Taxonomie, die Context Engineering in seine grundlegenden Komponenten und die anspruchsvollen Implementierungen, die sie in intelligente Systeme integrieren, zerlegt. Zunächst untersuchen wir die grundlegenden Komponenten: Kontextabruf und -generierung, Kontextverarbeitung und Kontextmanagement. Anschließend erforschen wir, wie diese Komponenten architektonisch integriert werden, um anspruchsvolle Systemimplementierungen zu schaffen: retrieval-augmented generation (RAG), Speichersysteme und werkzeugintegriertes Denken sowie Multi-Agenten-Systeme. Durch diese systematische Analyse von über 1300 Forschungsarbeiten etabliert unsere Übersicht nicht nur einen technischen Fahrplan für das Feld, sondern deckt auch eine kritische Forschungslücke auf: Es besteht eine grundlegende Asymmetrie zwischen den Modellfähigkeiten. Während aktuelle Modelle, unterstützt durch fortschrittliches Context Engineering, bemerkenswerte Fähigkeiten im Verständnis komplexer Kontexte zeigen, weisen sie deutliche Einschränkungen bei der Generierung ebenso anspruchsvoller, langformatiger Ausgaben auf. Die Behebung dieser Lücke ist eine entscheidende Priorität für zukünftige Forschung. Letztendlich bietet diese Übersicht einen einheitlichen Rahmen sowohl für Forscher als auch für Ingenieure, die kontextbewusste KI vorantreiben.
English
The performance of Large Language Models (LLMs) is fundamentally determined by the contextual information provided during inference. This survey introduces Context Engineering, a formal discipline that transcends simple prompt design to encompass the systematic optimization of information payloads for LLMs. We present a comprehensive taxonomy decomposing Context Engineering into its foundational components and the sophisticated implementations that integrate them into intelligent systems. We first examine the foundational components: context retrieval and generation, context processing and context management. We then explore how these components are architecturally integrated to create sophisticated system implementations: retrieval-augmented generation (RAG), memory systems and tool-integrated reasoning, and multi-agent systems. Through this systematic analysis of over 1300 research papers, our survey not only establishes a technical roadmap for the field but also reveals a critical research gap: a fundamental asymmetry exists between model capabilities. While current models, augmented by advanced context engineering, demonstrate remarkable proficiency in understanding complex contexts, they exhibit pronounced limitations in generating equally sophisticated, long-form outputs. Addressing this gap is a defining priority for future research. Ultimately, this survey provides a unified framework for both researchers and engineers advancing context-aware AI.
PDF872July 18, 2025