Trace2Skill: Извлечение локальных уроков из траекторий в переносимые навыки агента
Trace2Skill: Distill Trajectory-Local Lessons into Transferable Agent Skills
March 26, 2026
Авторы: Jingwei Ni, Yihao Liu, Xinpeng Liu, Yutao Sun, Mengyu Zhou, Pengyu Cheng, Dexin Wang, Xiaoxi Jiang, Guanjun Jiang
cs.AI
Аннотация
Оснащение агентов на основе больших языковых моделей (LLM) предметными навыками крайне важно для решения сложных задач. Однако ручное создание навыков создает серьезное проблему масштабируемости. В свою очередь, автоматическая генерация навыков часто дает хрупкие или фрагментированные результаты, поскольку либо опирается на поверхностные параметрические знания, либо последовательно переобучается на необобщаемых уроках из отдельных траекторий. Чтобы преодолеть это, мы представляем Trace2Skill — фреймворк, который повторяет подход экспертов-людей к созданию навыков: через целостный анализ широкого опыта исполнения с последующим его обобщением в единое, всеобъемлющее руководство. Вместо последовательной реакции на отдельные траектории, Trace2Skill запускает параллельный флот под-агентов для анализа разнообразного набора исполнений. Он извлекает специфичные для траектории уроки и иерархически консолидирует их в унифицированный, бесконфликтный каталог навыков с помощью индуктивного рассуждения. Trace2Skill поддерживает как углубление существующих навыков, написанных человеком, так и создание новых с нуля. Эксперименты в сложных областях, таких как работа с электронными таблицами, VisionQA и математические рассуждения, показывают, что Trace2Skill значительно превосходит сильные базовые уровни, включая официальные навыки xlsx от Anthropic. Ключевой момент: эта эволюция, основанная на траекториях, не просто запоминает экземпляры задач или специфичные для модели особенности — развитые навыки переносятся между масштабами LLM и обобщаются на условиях, выходящих за пределы распределения обучающих данных (OOD). Например, навыки, развитые моделью Qwen3.5-35B на ее собственных траекториях, улучшили агента на основе Qwen3.5-122B на величину до 57.65 абсолютных процентных пунктов на WikiTableQuestions. В конечном счете, наши результаты демонстрируют, что сложный опыт агента может быть упакован в высоко переносимые, декларативные навыки — не требующие обновления параметров, внешних модулей поиска и использующие открытые модели размером всего от 35 миллиардов параметров.
English
Equipping Large Language Model (LLM) agents with domain-specific skills is critical for tackling complex tasks. Yet, manual authoring creates a severe scalability bottleneck. Conversely, automated skill generation often yields fragile or fragmented results because it either relies on shallow parametric knowledge or sequentially overfits to non-generalizable trajectory-local lessons. To overcome this, we introduce Trace2Skill, a framework that mirrors how human experts author skills: by holistically analyzing broad execution experience before distilling it into a single, comprehensive guide. Instead of reacting sequentially to individual trajectories, Trace2Skill dispatches a parallel fleet of sub-agents to analyze a diverse pool of executions. It extracts trajectory-specific lessons and hierarchically consolidates them into a unified, conflict-free skill directory via inductive reasoning. Trace2Skill supports both deepening existing human-written skills and creating new ones from scratch. Experiments in challenging domains, such as spreadsheet, VisionQA and math reasoning, show that Trace2Skill significantly improves upon strong baselines, including Anthropic's official xlsx skills. Crucially, this trajectory-grounded evolution does not merely memorize task instances or model-specific quirks: evolved skills transfer across LLM scales and generalize to OOD settings. For example, skills evolved by Qwen3.5-35B on its own trajectories improved a Qwen3.5-122B agent by up to 57.65 absolute percentage points on WikiTableQuestions. Ultimately, our results demonstrate that complex agent experience can be packaged into highly transferable, declarative skills -- requiring no parameter updates, no external retrieval modules, and utilizing open-source models as small as 35B parameters.