ALCANCE: Evolución de Prompts para Mejorar la Efectividad de Agentes
SCOPE: Prompt Evolution for Enhancing Agent Effectiveness
December 17, 2025
Autores: Zehua Pei, Hui-Ling Zhen, Shixiong Kai, Sinno Jialin Pan, Yunhe Wang, Mingxuan Yuan, Bei Yu
cs.AI
Resumen
Los agentes de modelos de lenguaje grande (LLM) se despliegan cada vez más en entornos que generan contextos masivos y dinámicos. Sin embargo, persiste un cuello de botella crítico: aunque los agentes tienen acceso a este contexto, sus *prompts* estáticos carecen de los mecanismos para gestionarlo eficazmente, lo que conduce a fallos recurrentes de Corrección y Mejora. Para abordar esta brecha de capacidad, presentamos SCOPE (Optimización de Contexto Autoevolutivo mediante Evolución de *Prompts*). SCOPE plantea la gestión del contexto como un problema de optimización en línea, sintetizando directrices a partir de trazas de ejecución para evolucionar automáticamente el *prompt* del agente. Proponemos un mecanismo de Doble Flujo que equilibra la especificidad táctica (resolver errores inmediatos) con la generalidad estratégica (evolucionar principios a largo plazo). Además, introducimos la Exploración Guiada por Perspectivas para maximizar la cobertura de estrategias, aumentando la probabilidad de que el agente tenga la estrategia correcta para cualquier tarea dada. Los experimentos en el benchmark HLE muestran que SCOPE mejora las tasas de éxito de las tareas del 14.23 % al 38.64 % sin intervención humana. Ponemos nuestro código a disposición del público en https://github.com/JarvisPei/SCOPE.
English
Large Language Model (LLM) agents are increasingly deployed in environments that generate massive, dynamic contexts. However, a critical bottleneck remains: while agents have access to this context, their static prompts lack the mechanisms to manage it effectively, leading to recurring Corrective and Enhancement failures. To address this capability gap, we introduce SCOPE (Self-evolving Context Optimization via Prompt Evolution). SCOPE frames context management as an online optimization problem, synthesizing guidelines from execution traces to automatically evolve the agent's prompt. We propose a Dual-Stream mechanism that balances tactical specificity (resolving immediate errors) with strategic generality (evolving long-term principles). Furthermore, we introduce Perspective-Driven Exploration to maximize strategy coverage, increasing the likelihood that the agent has the correct strategy for any given task. Experiments on the HLE benchmark show that SCOPE improves task success rates from 14.23\% to 38.64\% without human intervention. We make our code publicly available at https://github.com/JarvisPei/SCOPE.