ChatPaper.aiChatPaper

Uma Análise da Engenharia de Contexto para Modelos de Linguagem de Grande Escala

A Survey of Context Engineering for Large Language Models

July 17, 2025
Autores: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI

Resumo

O desempenho dos Modelos de Linguagem de Grande Escala (LLMs) é fundamentalmente determinado pelas informações contextuais fornecidas durante a inferência. Este estudo introduz a Engenharia de Contexto, uma disciplina formal que transcende o simples design de prompts para abranger a otimização sistemática de cargas de informação para LLMs. Apresentamos uma taxonomia abrangente que decompõe a Engenharia de Contexto em seus componentes fundamentais e nas implementações sofisticadas que os integram em sistemas inteligentes. Primeiro, examinamos os componentes fundamentais: recuperação e geração de contexto, processamento de contexto e gerenciamento de contexto. Em seguida, exploramos como esses componentes são integrados arquitetonicamente para criar implementações de sistemas sofisticadas: geração aumentada por recuperação (RAG), sistemas de memória e raciocínio integrado a ferramentas, e sistemas multiagentes. Através desta análise sistemática de mais de 1300 artigos de pesquisa, nosso estudo não apenas estabelece um roteiro técnico para o campo, mas também revela uma lacuna crítica de pesquisa: existe uma assimetria fundamental entre as capacidades dos modelos. Embora os modelos atuais, aumentados por engenharia de contexto avançada, demonstrem proficiência notável na compreensão de contextos complexos, eles exibem limitações pronunciadas na geração de saídas igualmente sofisticadas e de longo formato. Abordar essa lacuna é uma prioridade definidora para pesquisas futuras. Por fim, este estudo fornece um framework unificado tanto para pesquisadores quanto para engenheiros que avançam na IA consciente do contexto.
English
The performance of Large Language Models (LLMs) is fundamentally determined by the contextual information provided during inference. This survey introduces Context Engineering, a formal discipline that transcends simple prompt design to encompass the systematic optimization of information payloads for LLMs. We present a comprehensive taxonomy decomposing Context Engineering into its foundational components and the sophisticated implementations that integrate them into intelligent systems. We first examine the foundational components: context retrieval and generation, context processing and context management. We then explore how these components are architecturally integrated to create sophisticated system implementations: retrieval-augmented generation (RAG), memory systems and tool-integrated reasoning, and multi-agent systems. Through this systematic analysis of over 1300 research papers, our survey not only establishes a technical roadmap for the field but also reveals a critical research gap: a fundamental asymmetry exists between model capabilities. While current models, augmented by advanced context engineering, demonstrate remarkable proficiency in understanding complex contexts, they exhibit pronounced limitations in generating equally sophisticated, long-form outputs. Addressing this gap is a defining priority for future research. Ultimately, this survey provides a unified framework for both researchers and engineers advancing context-aware AI.
PDF22312July 18, 2025