SkillClaw: Far Evolvere le Competenze Collettivamente con l'Agente Evolutivo
SkillClaw: Let Skills Evolve Collectively with Agentic Evolver
April 9, 2026
Autori: Ziyu Ma, Shidong Yang, Yuxiang Ji, Xucong Wang, Yong Wang, Yiming Hu, Tongwen Huang, Xiangxiang Chu
cs.AI
Abstract
Gli agenti basati su grandi modelli linguistici (LLM) come OpenClaw si affidano a competenze riutilizzabili per eseguire compiti complessi, eppure queste competenze rimangono largamente statiche dopo il deployment. Di conseguenza, flussi di lavoro simili, pattern di utilizzo degli strumenti e modalità di fallimento vengono ripetutamente riscoperti dagli utenti, impedendo al sistema di migliorare con l'esperienza. Sebbene le interazioni di utenti diversi forniscano segnali complementari su quando una competenza funziona o fallisce, i sistemi esistenti mancano di un meccanismo per convertire tali esperienze eterogenee in aggiornamenti affidabili delle competenze. Per affrontare questi problemi, presentiamo SkillClaw, un framework per l'evoluzione collettiva delle competenze negli ecosistemi di agenti multi-utente, che tratta le interazioni tra utenti e nel tempo come segnale primario per il miglioramento delle competenze. SkillClaw aggrega continuamente le traiettorie generate durante l'uso e le elabora con un modulo di evoluzione autonomo, che identifica pattern comportamentali ricorrenti e li traduce in aggiornamenti dell'insieme di competenze, affinando quelle esistenti o estendendole con nuove capacità. Le competenze risultanti sono mantenute in un repository condiviso e sincronizzate tra gli utenti, permettendo ai miglioramenti scoperti in un contesto di propagarsi a livello di sistema senza richiedere alcuno sforzo aggiuntivo dagli utenti. Integrando l'esperienza multi-utente in aggiornamenti continui delle competenze, SkillClaw abilita il trasferimento di conoscenze tra utenti e un miglioramento cumulativo delle capacità, e gli esperimenti su WildClawBench dimostrano che, con interazione e feedback limitati, migliora significativamente le prestazioni di Qwen3-Max in scenari agentistici del mondo reale.
English
Large language model (LLM) agents such as OpenClaw rely on reusable skills to perform complex tasks, yet these skills remain largely static after deployment. As a result, similar workflows, tool usage patterns, and failure modes are repeatedly rediscovered across users, preventing the system from improving with experience. While interactions from different users provide complementary signals about when a skill works or fails, existing systems lack a mechanism to convert such heterogeneous experiences into reliable skill updates. To address these issues, we present SkillClaw, a framework for collective skill evolution in multi-user agent ecosystems, which treats cross-user and over-time interactions as the primary signal for improving skills. SkillClaw continuously aggregates trajectories generated during use and processes them with an autonomous evolver, which identifies recurring behavioral patterns and translates them into updates to the skill set by refining existing skills or extending them with new capabilities. The resulting skills are maintained in a shared repository and synchronized across users, allowing improvements discovered in one context to propagate system-wide while requiring no additional effort from users. By integrating multi-user experience into ongoing skill updates, SkillClaw enables cross-user knowledge transfer and cumulative capability improvement, and experiments on WildClawBench show that limited interaction and feedback, it significantly improves the performance of Qwen3-Max in real-world agent scenarios.