SkillClaw: Lassen Sie Fähigkeiten sich kollektiv mit agentenbasiertem Entwickler weiterentwickeln.
SkillClaw: Let Skills Evolve Collectively with Agentic Evolver
April 9, 2026
Autoren: Ziyu Ma, Shidong Yang, Yuxiang Ji, Xucong Wang, Yong Wang, Yiming Hu, Tongwen Huang, Xiangxiang Chu
cs.AI
Zusammenfassung
Große Sprachmodell-Agenten (LLM) wie OpenClaw nutzen wiederverwendbare Fähigkeiten, um komplexe Aufgaben auszuführen, doch diese Fähigkeiten bleiben nach dem Einsatz weitgehend statisch. Infolgedessen werden ähnliche Arbeitsabläufe, Werkzeugnutzungsmuster und Fehlermodi von verschiedenen Nutzern immer wieder neu entdeckt, was verhindert, dass sich das System durch Erfahrung verbessert. Obwohl Interaktionen verschiedener Nutzer komplementäre Signale darüber liefern, wann eine Fähigkeit funktioniert oder versagt, fehlt bestehenden Systemen ein Mechanismus, um solche heterogenen Erfahrungen in zuverlässige Fähigkeitsaktualisierungen umzuwandeln. Um diese Probleme zu adressieren, stellen wir SkillClaw vor, einen Rahmen für die kollektive Evolution von Fähigkeiten in Multi-User-Agenten-Ökosystemen, der nutzerübergreifende und zeitlich verteilte Interaktionen als primäres Signal zur Verbesserung von Fähigkeiten behandelt. SkillClaw aggregiert kontinuierlich während der Nutzung erzeugte Trajektorien und verarbeitet sie mit einem autonomen Evolver, der wiederkehrende Verhaltensmuster identifiziert und diese in Aktualisierungen des Fähigkeitensatzes übersetzt, indem bestehende Fähigkeiten verfeinert oder um neue Funktionalitäten erweitert werden. Die resultierenden Fähigkeiten werden in einem gemeinsamen Repository verwaltet und nutzerübergreifend synchronisiert, sodass Verbesserungen, die in einem Kontext entdeckt werden, systemweit verbreitet werden können, ohne dass Nutzer zusätzlichen Aufwand betreiben müssen. Durch die Integration von Multi-User-Erfahrungen in fortlaufende Fähigkeitsaktualisierungen ermöglicht SkillClaw nutzerübergreifenden Wissenstransfer und kumulative Kompetenzverbesserung. Experimente auf WildClawBench zeigen, dass SkillClaw mit begrenzten Interaktionen und Feedback die Leistung von Qwen3-Max in realen Agentenszenarien signifikant verbessert.
English
Large language model (LLM) agents such as OpenClaw rely on reusable skills to perform complex tasks, yet these skills remain largely static after deployment. As a result, similar workflows, tool usage patterns, and failure modes are repeatedly rediscovered across users, preventing the system from improving with experience. While interactions from different users provide complementary signals about when a skill works or fails, existing systems lack a mechanism to convert such heterogeneous experiences into reliable skill updates. To address these issues, we present SkillClaw, a framework for collective skill evolution in multi-user agent ecosystems, which treats cross-user and over-time interactions as the primary signal for improving skills. SkillClaw continuously aggregates trajectories generated during use and processes them with an autonomous evolver, which identifies recurring behavioral patterns and translates them into updates to the skill set by refining existing skills or extending them with new capabilities. The resulting skills are maintained in a shared repository and synchronized across users, allowing improvements discovered in one context to propagate system-wide while requiring no additional effort from users. By integrating multi-user experience into ongoing skill updates, SkillClaw enables cross-user knowledge transfer and cumulative capability improvement, and experiments on WildClawBench show that limited interaction and feedback, it significantly improves the performance of Qwen3-Max in real-world agent scenarios.