ChatPaper.aiChatPaper

Trace2Skill: Distillare le Lezioni Locali delle Traiettorie in Competenze Trasferibili per Agenti

Trace2Skill: Distill Trajectory-Local Lessons into Transferable Agent Skills

March 26, 2026
Autori: Jingwei Ni, Yihao Liu, Xinpeng Liu, Yutao Sun, Mengyu Zhou, Pengyu Cheng, Dexin Wang, Xiaoxi Jiang, Guanjun Jiang
cs.AI

Abstract

Dotare gli agenti di Large Language Model (LLM) di competenze specifiche per dominio è fondamentale per affrontare compiti complessi. Tuttavia, la creazione manuale rappresenta un grave collo di bottiglia per la scalabilità. Al contrario, la generazione automatica di competenze spesso produce risultati fragili o frammentati, poiché si basa su conoscenze parametriche superficiali o sovradatta sequenzialmente a lezioni locali alla traiettoria non generalizzabili. Per superare questo limite, introduciamo Trace2Skill, un framework che rispecchia il modo in cui gli esperti umani creano competenze: analizzando in modo olistico un'ampia esperienza esecutiva prima di distillarla in una guida singola e completa. Invece di reagire sequenzialmente a singole traiettorie, Trace2Skill dispiega una flotta parallela di sub-agent per analizzare un insieme diversificato di esecuzioni. Estrae lezioni specifiche per traiettoria e le consolida gerarchicamente in una directory di competenze unificata e priva di conflitti tramite ragionamento induttivo. Trace2Skill supporta sia l'approfondimento di competenze esistenti scritte da umani, sia la creazione di nuove da zero. Esperimenti in domini impegnativi, come fogli di calcolo, VisionQA e ragionamento matematico, mostrano che Trace2Skill migliora significativamente baseline solide, incluse le competenze ufficiali xlsx di Anthropic. Crucialmente, questa evoluzione basata sulle traiettorie non si limita a memorizzare istanze di compiti o peculiarità specifiche del modello: le competenze evolute si trasferiscono attraverso diverse scale di LLM e generalizzano a contesti out-of-distribution (OOD). Ad esempio, competenze evolute da Qwen3.5-35B sulle proprie traiettorie hanno migliorato un agente Qwen3.5-122B fino a 57,65 punti percentuali assoluti su WikiTableQuestions. In definitiva, i nostri risultati dimostrano che l'esperienza complessa di un agente può essere impacchettata in competenze dichiarative altamente trasferibili – che non richiedono aggiornamenti dei parametri, né moduli esterni di retrieval, e utilizzano modelli open-source di dimensioni ridotte fino a 35B parametri.
English
Equipping Large Language Model (LLM) agents with domain-specific skills is critical for tackling complex tasks. Yet, manual authoring creates a severe scalability bottleneck. Conversely, automated skill generation often yields fragile or fragmented results because it either relies on shallow parametric knowledge or sequentially overfits to non-generalizable trajectory-local lessons. To overcome this, we introduce Trace2Skill, a framework that mirrors how human experts author skills: by holistically analyzing broad execution experience before distilling it into a single, comprehensive guide. Instead of reacting sequentially to individual trajectories, Trace2Skill dispatches a parallel fleet of sub-agents to analyze a diverse pool of executions. It extracts trajectory-specific lessons and hierarchically consolidates them into a unified, conflict-free skill directory via inductive reasoning. Trace2Skill supports both deepening existing human-written skills and creating new ones from scratch. Experiments in challenging domains, such as spreadsheet, VisionQA and math reasoning, show that Trace2Skill significantly improves upon strong baselines, including Anthropic's official xlsx skills. Crucially, this trajectory-grounded evolution does not merely memorize task instances or model-specific quirks: evolved skills transfer across LLM scales and generalize to OOD settings. For example, skills evolved by Qwen3.5-35B on its own trajectories improved a Qwen3.5-122B agent by up to 57.65 absolute percentage points on WikiTableQuestions. Ultimately, our results demonstrate that complex agent experience can be packaged into highly transferable, declarative skills -- requiring no parameter updates, no external retrieval modules, and utilizing open-source models as small as 35B parameters.
PDF3310March 31, 2026