Een Overzicht van Contextengineering voor Grote Taalmodellen
A Survey of Context Engineering for Large Language Models
July 17, 2025
Auteurs: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI
Samenvatting
De prestaties van Large Language Models (LLM's) worden fundamenteel bepaald door de contextuele informatie die tijdens inferentie wordt verstrekt. Dit overzicht introduceert Context Engineering, een formeel vakgebied dat verder gaat dan eenvoudige promptontwerp en zich richt op de systematische optimalisatie van informatiepayloads voor LLM's. We presenteren een uitgebreide taxonomie die Context Engineering ontleedt in zijn fundamentele componenten en de geavanceerde implementaties die deze integreren in intelligente systemen. We onderzoeken eerst de fundamentele componenten: contextretrieval en -generatie, contextverwerking en contextbeheer. Vervolgens verkennen we hoe deze componenten architectonisch worden geïntegreerd om geavanceerde systeemimplementaties te creëren: retrieval-augmented generation (RAG), geheugensystemen en tool-geïntegreerd redeneren, en multi-agent systemen. Door deze systematische analyse van meer dan 1300 onderzoeksartikelen, stelt ons overzicht niet alleen een technische routekaart voor het vakgebied vast, maar onthult het ook een kritieke onderzoekskloof: er bestaat een fundamentele asymmetrie tussen modelmogelijkheden. Hoewel huidige modellen, versterkt door geavanceerd context engineering, opmerkelijke vaardigheid tonen in het begrijpen van complexe contexten, vertonen ze duidelijke beperkingen in het genereren van even geavanceerde, langlopende outputs. Het aanpakken van deze kloof is een bepalende prioriteit voor toekomstig onderzoek. Uiteindelijk biedt dit overzicht een uniform raamwerk voor zowel onderzoekers als ingenieurs die contextbewuste AI verder ontwikkelen.
English
The performance of Large Language Models (LLMs) is fundamentally determined
by the contextual information provided during inference. This survey introduces
Context Engineering, a formal discipline that transcends simple prompt design
to encompass the systematic optimization of information payloads for LLMs. We
present a comprehensive taxonomy decomposing Context Engineering into its
foundational components and the sophisticated implementations that integrate
them into intelligent systems. We first examine the foundational components:
context retrieval and generation, context processing and context management. We
then explore how these components are architecturally integrated to create
sophisticated system implementations: retrieval-augmented generation (RAG),
memory systems and tool-integrated reasoning, and multi-agent systems. Through
this systematic analysis of over 1300 research papers, our survey not only
establishes a technical roadmap for the field but also reveals a critical
research gap: a fundamental asymmetry exists between model capabilities. While
current models, augmented by advanced context engineering, demonstrate
remarkable proficiency in understanding complex contexts, they exhibit
pronounced limitations in generating equally sophisticated, long-form outputs.
Addressing this gap is a defining priority for future research. Ultimately,
this survey provides a unified framework for both researchers and engineers
advancing context-aware AI.