ChatPaper.aiChatPaper

Una Revisión de la Ingeniería de Contexto para Modelos de Lenguaje a Gran Escala

A Survey of Context Engineering for Large Language Models

July 17, 2025
Autores: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI

Resumen

El rendimiento de los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) está fundamentalmente determinado por la información contextual proporcionada durante la inferencia. Este estudio introduce la Ingeniería de Contexto, una disciplina formal que trasciende el diseño simple de prompts para abarcar la optimización sistemática de las cargas de información para los LLMs. Presentamos una taxonomía exhaustiva que descompone la Ingeniería de Contexto en sus componentes fundamentales y las implementaciones sofisticadas que los integran en sistemas inteligentes. Primero examinamos los componentes fundamentales: recuperación y generación de contexto, procesamiento de contexto y gestión de contexto. Luego exploramos cómo estos componentes se integran arquitectónicamente para crear implementaciones de sistemas avanzadas: generación aumentada por recuperación (RAG), sistemas de memoria y razonamiento integrado con herramientas, y sistemas multiagente. A través de este análisis sistemático de más de 1300 artículos de investigación, nuestro estudio no solo establece una hoja de ruta técnica para el campo, sino que también revela una brecha crítica de investigación: existe una asimetría fundamental entre las capacidades de los modelos. Si bien los modelos actuales, potenciados por la ingeniería de contexto avanzada, demuestran una notable competencia en la comprensión de contextos complejos, muestran limitaciones pronunciadas en la generación de salidas igualmente sofisticadas y de largo formato. Abordar esta brecha es una prioridad definitoria para la investigación futura. En última instancia, este estudio proporciona un marco unificado tanto para investigadores como para ingenieros que avanzan en la IA consciente del contexto.
English
The performance of Large Language Models (LLMs) is fundamentally determined by the contextual information provided during inference. This survey introduces Context Engineering, a formal discipline that transcends simple prompt design to encompass the systematic optimization of information payloads for LLMs. We present a comprehensive taxonomy decomposing Context Engineering into its foundational components and the sophisticated implementations that integrate them into intelligent systems. We first examine the foundational components: context retrieval and generation, context processing and context management. We then explore how these components are architecturally integrated to create sophisticated system implementations: retrieval-augmented generation (RAG), memory systems and tool-integrated reasoning, and multi-agent systems. Through this systematic analysis of over 1300 research papers, our survey not only establishes a technical roadmap for the field but also reveals a critical research gap: a fundamental asymmetry exists between model capabilities. While current models, augmented by advanced context engineering, demonstrate remarkable proficiency in understanding complex contexts, they exhibit pronounced limitations in generating equally sophisticated, long-form outputs. Addressing this gap is a defining priority for future research. Ultimately, this survey provides a unified framework for both researchers and engineers advancing context-aware AI.
PDF872July 18, 2025