ChatPaper.aiChatPaper

Une étude sur l'ingénierie contextuelle pour les modèles de langage à grande échelle

A Survey of Context Engineering for Large Language Models

July 17, 2025
papers.authors: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI

papers.abstract

La performance des modèles de langage à grande échelle (LLMs) est fondamentalement déterminée par les informations contextuelles fournies lors de l'inférence. Cette étude introduit l'Ingénierie Contextuelle, une discipline formelle qui dépasse la simple conception de prompts pour englober l'optimisation systématique des charges d'information pour les LLMs. Nous présentons une taxonomie complète décomposant l'Ingénierie Contextuelle en ses composants fondamentaux et les implémentations sophistiquées qui les intègrent dans des systèmes intelligents. Nous examinons d'abord les composants fondamentaux : la récupération et la génération de contexte, le traitement du contexte et la gestion du contexte. Nous explorons ensuite comment ces composants sont intégrés architecturalement pour créer des implémentations de systèmes sophistiquées : la génération augmentée par récupération (RAG), les systèmes de mémoire et le raisonnement intégré d'outils, ainsi que les systèmes multi-agents. À travers cette analyse systématique de plus de 1300 articles de recherche, notre étude établit non seulement une feuille de route technique pour le domaine, mais révèle également un déficit critique de recherche : une asymétrie fondamentale existe entre les capacités des modèles. Alors que les modèles actuels, augmentés par une ingénierie contextuelle avancée, démontrent une remarquable maîtrise dans la compréhension de contextes complexes, ils présentent des limitations prononcées dans la génération de productions longues et tout aussi sophistiquées. Combler ce déficit est une priorité déterminante pour les recherches futures. En fin de compte, cette étude fournit un cadre unifié pour les chercheurs et les ingénieurs qui font progresser l'IA contextuelle.
English
The performance of Large Language Models (LLMs) is fundamentally determined by the contextual information provided during inference. This survey introduces Context Engineering, a formal discipline that transcends simple prompt design to encompass the systematic optimization of information payloads for LLMs. We present a comprehensive taxonomy decomposing Context Engineering into its foundational components and the sophisticated implementations that integrate them into intelligent systems. We first examine the foundational components: context retrieval and generation, context processing and context management. We then explore how these components are architecturally integrated to create sophisticated system implementations: retrieval-augmented generation (RAG), memory systems and tool-integrated reasoning, and multi-agent systems. Through this systematic analysis of over 1300 research papers, our survey not only establishes a technical roadmap for the field but also reveals a critical research gap: a fundamental asymmetry exists between model capabilities. While current models, augmented by advanced context engineering, demonstrate remarkable proficiency in understanding complex contexts, they exhibit pronounced limitations in generating equally sophisticated, long-form outputs. Addressing this gap is a defining priority for future research. Ultimately, this survey provides a unified framework for both researchers and engineers advancing context-aware AI.
PDF872July 18, 2025