SkillClaw: Коллективная эволюция навыков с помощью агентного эволютора
SkillClaw: Let Skills Evolve Collectively with Agentic Evolver
April 9, 2026
Авторы: Ziyu Ma, Shidong Yang, Yuxiang Ji, Xucong Wang, Yong Wang, Yiming Hu, Tongwen Huang, Xiangxiang Chu
cs.AI
Аннотация
Крупные языковые модели (LLM) агентов, такие как OpenClaw, используют переиспользуемые навыки для выполнения сложных задач, однако эти навыки остаются в значительной степени статичными после развертывания. В результате схожие рабочие процессы, паттерны использования инструментов и режимы сбоев повторно обнаруживаются разными пользователями, что препятствует улучшению системы с накоплением опыта. Хотя взаимодействия от разных пользователей предоставляют взаимодополняющие сигналы о том, когда навык работает или дает сбой, существующие системы не имеют механизма для преобразования такого гетерогенного опыта в надежные обновления навыков. Для решения этих проблем мы представляем SkillClaw — фреймворк для коллективной эволюции навыков в экосистемах агентов с множеством пользователей, который рассматривает межпользовательские и разновременные взаимодействия как первичный сигнал для улучшения навыков. SkillClaw непрерывно агрегирует траектории, сгенерированные в процессе использования, и обрабатывает их с помощью автономного эволютора, который выявляет повторяющиеся поведенческие паттерны и преобразует их в обновления набора навыков путем уточнения существующих навыков или расширения их новыми возможностями. Полученные навыки сохраняются в общем репозитории и синхронизируются между пользователями, что позволяет улучшениям, обнаруженным в одном контексте, распространяться по всей системе без дополнительных усилий со стороны пользователей. Интегрируя многопользовательский опыт в постоянные обновления навыков, SkillClaw обеспечивает межпользовательский перенос знаний и кумулятивное улучшение возможностей. Эксперименты на WildClawBench показывают, что при ограниченном взаимодействии и обратной связи система значительно повышает производительность Qwen3-Max в реальных сценариях работы агентов.
English
Large language model (LLM) agents such as OpenClaw rely on reusable skills to perform complex tasks, yet these skills remain largely static after deployment. As a result, similar workflows, tool usage patterns, and failure modes are repeatedly rediscovered across users, preventing the system from improving with experience. While interactions from different users provide complementary signals about when a skill works or fails, existing systems lack a mechanism to convert such heterogeneous experiences into reliable skill updates. To address these issues, we present SkillClaw, a framework for collective skill evolution in multi-user agent ecosystems, which treats cross-user and over-time interactions as the primary signal for improving skills. SkillClaw continuously aggregates trajectories generated during use and processes them with an autonomous evolver, which identifies recurring behavioral patterns and translates them into updates to the skill set by refining existing skills or extending them with new capabilities. The resulting skills are maintained in a shared repository and synchronized across users, allowing improvements discovered in one context to propagate system-wide while requiring no additional effort from users. By integrating multi-user experience into ongoing skill updates, SkillClaw enables cross-user knowledge transfer and cumulative capability improvement, and experiments on WildClawBench show that limited interaction and feedback, it significantly improves the performance of Qwen3-Max in real-world agent scenarios.