ChatPaper.aiChatPaper

Engenharia de Contexto Agêntico: Evolução de Contextos para Modelos de Linguagem de Autoaperfeiçoamento

Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models

October 6, 2025
Autores: Qizheng Zhang, Changran Hu, Shubhangi Upasani, Boyuan Ma, Fenglu Hong, Vamsidhar Kamanuru, Jay Rainton, Chen Wu, Mengmeng Ji, Hanchen Li, Urmish Thakker, James Zou, Kunle Olukotun
cs.AI

Resumo

Aplicações de modelos de linguagem de grande escala (LLMs), como agentes e raciocínio específico de domínio, estão cada vez mais dependentes da adaptação de contexto — modificando entradas com instruções, estratégias ou evidências, em vez de atualizações de pesos. Abordagens anteriores melhoram a usabilidade, mas frequentemente sofrem de viés de brevidade, que descarta insights de domínio em favor de resumos concisos, e de colapso de contexto, onde reescritas iterativas erodem detalhes ao longo do tempo. Baseando-se na memória adaptativa introduzida pelo Dynamic Cheatsheet, apresentamos o ACE (Agentic Context Engineering), um framework que trata contextos como playbooks em evolução que acumulam, refinam e organizam estratégias por meio de um processo modular de geração, reflexão e curadoria. O ACE previne o colapso com atualizações estruturadas e incrementais que preservam conhecimento detalhado e escalam com modelos de contexto longo. Em benchmarks de agentes e domínios específicos, o ACE otimiza contextos tanto offline (por exemplo, prompts de sistema) quanto online (por exemplo, memória do agente), superando consistentemente baselines robustas: +10,6% em agentes e +8,6% em finanças, enquanto reduz significativamente a latência de adaptação e o custo de implantação. Notavelmente, o ACE conseguiu se adaptar efetivamente sem supervisão rotulada, utilizando feedback natural de execução. No leaderboard do AppWorld, o ACE iguala o agente de nível de produção mais bem classificado na média geral e o supera na divisão mais desafiadora de testes, apesar de usar um modelo open-source menor. Esses resultados mostram que contextos abrangentes e em evolução permitem sistemas LLM escaláveis, eficientes e autossuficientes com baixa sobrecarga.
English
Large language model (LLM) applications such as agents and domain-specific reasoning increasingly rely on context adaptation -- modifying inputs with instructions, strategies, or evidence, rather than weight updates. Prior approaches improve usability but often suffer from brevity bias, which drops domain insights for concise summaries, and from context collapse, where iterative rewriting erodes details over time. Building on the adaptive memory introduced by Dynamic Cheatsheet, we introduce ACE (Agentic Context Engineering), a framework that treats contexts as evolving playbooks that accumulate, refine, and organize strategies through a modular process of generation, reflection, and curation. ACE prevents collapse with structured, incremental updates that preserve detailed knowledge and scale with long-context models. Across agent and domain-specific benchmarks, ACE optimizes contexts both offline (e.g., system prompts) and online (e.g., agent memory), consistently outperforming strong baselines: +10.6% on agents and +8.6% on finance, while significantly reducing adaptation latency and rollout cost. Notably, ACE could adapt effectively without labeled supervision and instead by leveraging natural execution feedback. On the AppWorld leaderboard, ACE matches the top-ranked production-level agent on the overall average and surpasses it on the harder test-challenge split, despite using a smaller open-source model. These results show that comprehensive, evolving contexts enable scalable, efficient, and self-improving LLM systems with low overhead.
PDF1044October 7, 2025