ChatPaper.aiChatPaper

SkillClaw: Deixe as Habilidades Evoluírem Coletivamente com o Agente Evolutivo

SkillClaw: Let Skills Evolve Collectively with Agentic Evolver

April 9, 2026
Autores: Ziyu Ma, Shidong Yang, Yuxiang Ji, Xucong Wang, Yong Wang, Yiming Hu, Tongwen Huang, Xiangxiang Chu
cs.AI

Resumo

Agentes de modelo de linguagem grande (LLM), como o OpenClaw, dependem de habilidades reutilizáveis para executar tarefas complexas, mas essas habilidades permanecem amplamente estáticas após a implantação. Como resultado, fluxos de trabalho similares, padrões de uso de ferramentas e modos de falha são redescobertos repetidamente entre os usuários, impedindo que o sistema melhore com a experiência. Embora as interações de diferentes usuários forneçam sinais complementares sobre quando uma habilidade funciona ou falha, os sistemas existentes carecem de um mecanismo para converter tais experiências heterogêneas em atualizações confiáveis das habilidades. Para resolver essas questões, apresentamos o SkillClaw, uma estrutura para evolução coletiva de habilidades em ecossistemas de agentes multiutilizador, que trata as interações entre usuários e ao longo do tempo como o sinal primário para melhorar as habilidades. O SkillClaw agrega continuamente trajetórias geradas durante o uso e as processa com um evolucionador autónomo, que identifica padrões comportamentais recorrentes e os traduz em atualizações do conjunto de habilidades, refinando as existentes ou estendendo-as com novas capacidades. As habilidades resultantes são mantidas num repositório partilhado e sincronizadas entre os usuários, permitindo que melhorias descobertas num contexto se propaguem por todo o sistema sem exigir esforço adicional dos usuários. Ao integrar a experiência multiutilizador em atualizações contínuas de habilidades, o SkillClaw permite a transferência de conhecimento entre usuários e a melhoria cumulativa de capacidades. Experimentos no WildClawBench mostram que, com interação e *feedback* limitados, ele melhora significativamente o desempenho do Qwen3-Max em cenários reais de agentes.
English
Large language model (LLM) agents such as OpenClaw rely on reusable skills to perform complex tasks, yet these skills remain largely static after deployment. As a result, similar workflows, tool usage patterns, and failure modes are repeatedly rediscovered across users, preventing the system from improving with experience. While interactions from different users provide complementary signals about when a skill works or fails, existing systems lack a mechanism to convert such heterogeneous experiences into reliable skill updates. To address these issues, we present SkillClaw, a framework for collective skill evolution in multi-user agent ecosystems, which treats cross-user and over-time interactions as the primary signal for improving skills. SkillClaw continuously aggregates trajectories generated during use and processes them with an autonomous evolver, which identifies recurring behavioral patterns and translates them into updates to the skill set by refining existing skills or extending them with new capabilities. The resulting skills are maintained in a shared repository and synchronized across users, allowing improvements discovered in one context to propagate system-wide while requiring no additional effort from users. By integrating multi-user experience into ongoing skill updates, SkillClaw enables cross-user knowledge transfer and cumulative capability improvement, and experiments on WildClawBench show that limited interaction and feedback, it significantly improves the performance of Qwen3-Max in real-world agent scenarios.
PDF2646April 13, 2026