SkillClaw : Faire évoluer les compétences collectivement avec un Agent Évolutif
SkillClaw: Let Skills Evolve Collectively with Agentic Evolver
April 9, 2026
Auteurs: Ziyu Ma, Shidong Yang, Yuxiang Ji, Xucong Wang, Yong Wang, Yiming Hu, Tongwen Huang, Xiangxiang Chu
cs.AI
Résumé
Les agents de modèles de langage de grande taille (LLM) tels qu'OpenClaw s'appuient sur des compétences réutilisables pour exécuter des tâches complexes, mais ces compétences restent largement statiques après leur déploiement. Par conséquent, des workflows similaires, des modèles d'utilisation d'outils et des modes d'échec sont redécouverts de manière répétée par les utilisateurs, empêchant le système de s'améliorer avec l'expérience. Bien que les interactions de différents utilisateurs fournissent des signaux complémentaires sur le succès ou l'échec d'une compétence, les systèmes existants ne disposent pas d'un mécanisme pour convertir ces expériences hétérogènes en mises à jour fiables des compétences. Pour résoudre ces problèmes, nous présentons SkillClaw, un cadre pour l'évolution collective des compétences dans les écosystèmes d'agents multi-utilisateurs, qui traite les interactions inter-utilisateurs et temporelles comme le signal principal pour améliorer les compétences. SkillClaw agrège continuellement les trajectoires générées pendant l'utilisation et les traite avec un module d'évolution autonome, qui identifie les modèles comportementaux récurrents et les traduit en mises à jour de l'ensemble de compétences en affinant les compétences existantes ou en les étendant avec de nouvelles capacités. Les compétences résultantes sont maintenues dans un référentiel partagé et synchronisées entre les utilisateurs, permettant aux améliorations découvertes dans un contexte de se propager à l'échelle du système sans effort supplémentaire requis des utilisateurs. En intégrant l'expérience multi-utilisateur dans des mises à jour continues des compétences, SkillClaw permet un transfert de connaissances inter-utilisateurs et une amélioration cumulative des capacités. Les expériences sur WildClawBench montrent qu'avec une interaction et des retours limités, il améliore significativement les performances de Qwen3-Max dans des scénarios d'agents réels.
English
Large language model (LLM) agents such as OpenClaw rely on reusable skills to perform complex tasks, yet these skills remain largely static after deployment. As a result, similar workflows, tool usage patterns, and failure modes are repeatedly rediscovered across users, preventing the system from improving with experience. While interactions from different users provide complementary signals about when a skill works or fails, existing systems lack a mechanism to convert such heterogeneous experiences into reliable skill updates. To address these issues, we present SkillClaw, a framework for collective skill evolution in multi-user agent ecosystems, which treats cross-user and over-time interactions as the primary signal for improving skills. SkillClaw continuously aggregates trajectories generated during use and processes them with an autonomous evolver, which identifies recurring behavioral patterns and translates them into updates to the skill set by refining existing skills or extending them with new capabilities. The resulting skills are maintained in a shared repository and synchronized across users, allowing improvements discovered in one context to propagate system-wide while requiring no additional effort from users. By integrating multi-user experience into ongoing skill updates, SkillClaw enables cross-user knowledge transfer and cumulative capability improvement, and experiments on WildClawBench show that limited interaction and feedback, it significantly improves the performance of Qwen3-Max in real-world agent scenarios.