Ingeniería de Contextos Agénticos: Evolución de Contextos para Modelos de Lenguaje de Automejora
Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models
October 6, 2025
Autores: Qizheng Zhang, Changran Hu, Shubhangi Upasani, Boyuan Ma, Fenglu Hong, Vamsidhar Kamanuru, Jay Rainton, Chen Wu, Mengmeng Ji, Hanchen Li, Urmish Thakker, James Zou, Kunle Olukotun
cs.AI
Resumen
Las aplicaciones de modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como agentes y razonamiento específico de dominio, dependen cada vez más de la adaptación contextual: la modificación de entradas con instrucciones, estrategias o evidencia, en lugar de actualizaciones de pesos. Los enfoques previos mejoran la usabilidad, pero a menudo sufren de sesgo de brevedad, que descarta conocimientos del dominio en favor de resúmenes concisos, y de colapso contextual, donde la reescritura iterativa erosiona los detalles con el tiempo. Basándonos en la memoria adaptativa introducida por Dynamic Cheatsheet, presentamos ACE (Ingeniería Contextual Agéntica), un marco que trata los contextos como manuales evolutivos que acumulan, refinan y organizan estrategias a través de un proceso modular de generación, reflexión y curación. ACE previene el colapso con actualizaciones estructuradas e incrementales que preservan el conocimiento detallado y escalan con modelos de contexto largo. En benchmarks de agentes y dominios específicos, ACE optimiza los contextos tanto fuera de línea (por ejemplo, indicaciones del sistema) como en línea (por ejemplo, memoria del agente), superando consistentemente líneas de base sólidas: +10.6% en agentes y +8.6% en finanzas, mientras reduce significativamente la latencia de adaptación y el costo de implementación. Notablemente, ACE pudo adaptarse eficazmente sin supervisión etiquetada, aprovechando en su lugar la retroalimentación natural de la ejecución. En el ranking de AppWorld, ACE iguala al agente de nivel de producción mejor clasificado en el promedio general y lo supera en la división más desafiante de pruebas, a pesar de utilizar un modelo de código abierto más pequeño. Estos resultados demuestran que los contextos completos y evolutivos permiten sistemas LLM escalables, eficientes y automejorables con un bajo costo adicional.
English
Large language model (LLM) applications such as agents and domain-specific
reasoning increasingly rely on context adaptation -- modifying inputs with
instructions, strategies, or evidence, rather than weight updates. Prior
approaches improve usability but often suffer from brevity bias, which drops
domain insights for concise summaries, and from context collapse, where
iterative rewriting erodes details over time. Building on the adaptive memory
introduced by Dynamic Cheatsheet, we introduce ACE (Agentic Context
Engineering), a framework that treats contexts as evolving playbooks that
accumulate, refine, and organize strategies through a modular process of
generation, reflection, and curation. ACE prevents collapse with structured,
incremental updates that preserve detailed knowledge and scale with
long-context models. Across agent and domain-specific benchmarks, ACE optimizes
contexts both offline (e.g., system prompts) and online (e.g., agent memory),
consistently outperforming strong baselines: +10.6% on agents and +8.6% on
finance, while significantly reducing adaptation latency and rollout cost.
Notably, ACE could adapt effectively without labeled supervision and instead by
leveraging natural execution feedback. On the AppWorld leaderboard, ACE matches
the top-ranked production-level agent on the overall average and surpasses it
on the harder test-challenge split, despite using a smaller open-source model.
These results show that comprehensive, evolving contexts enable scalable,
efficient, and self-improving LLM systems with low overhead.