Trace2Skill: Destillieren trajektorienspezifischer Lektionen in übertragbare Agenten-Fähigkeiten
Trace2Skill: Distill Trajectory-Local Lessons into Transferable Agent Skills
March 26, 2026
Autoren: Jingwei Ni, Yihao Liu, Xinpeng Liu, Yutao Sun, Mengyu Zhou, Pengyu Cheng, Dexin Wang, Xiaoxi Jiang, Guanjun Jiang
cs.AI
Zusammenfassung
Die Ausstattung von Agenten mit großen Sprachmodellen (LLM) mit domänenspezifischen Fähigkeiten ist entscheidend für die Bewältigung komplexer Aufgaben. Dennoch führt manuelles Erstellen zu einem erheblichen Skalierbarkeitsengpass. Im Gegensatz dazu erzeugt die automatische Generierung von Fähigkeiten oft fragile oder fragmentierte Ergebnisse, da sie entweder auf oberflächlichem parametrischem Wissen basiert oder sequenziell an nicht verallgemeinerbare, trajectoriespezifische Lektionen überangepasst wird. Um dies zu überwinden, stellen wir Trace2Skill vor – ein Framework, das widerspiegelt, wie menschliche Experten Fähigkeiten entwickeln: durch ganzheitliche Analyse breiter Ausführungserfahrungen, bevor diese in eine einzige, umfassende Anleitung destilliert werden. Anstatt sequenziell auf einzelne Trajektorien zu reagieren, setzt Trace2Skill eine parallele Flotte von Sub-Agenten ein, um eine vielfältige Sammlung von Ausführungen zu analysieren. Es extrahiert trajectoriespezifische Lektionen und konsolidiert diese hierarchisch durch induktives Reasoning in ein einheitliches, widerspruchsfreies Fähigkeitsverzeichnis. Trace2Skill unterstützt sowohl die Vertiefung bestehender menschlich verfasster Fähigkeiten als auch die Erstellung neuer Fähigkeiten von Grund auf. Experimente in anspruchsvollen Domänen wie Tabellenkalkulation, VisionQA und mathematischem Reasoning zeigen, dass Trace2Skill starke Baseline-Methoden, einschließlich Anthropics offizieller xlsx-Fähigkeiten, signifikant übertrifft. Entscheidend ist, dass diese auf Trajektorien basierende Evolution nicht bloß Aufgabeninstanzen oder modellspezifische Eigenheiten auswendig lernt: entwickelte Fähigkeiten übertragen sich über verschiedene LLM-Skalen hinweg und generalisieren in Out-of-Distribution-Szenarien. Beispielsweise verbesserten Fähigkeiten, die von Qwen3.5-35B auf eigenen Trajektorien entwickelt wurden, einen Qwen3.5-122B-Agenten auf WikiTableQuestions um bis zu 57,65 absolute Prozentpunkte. Letztlich demonstrieren unsere Ergebnisse, dass komplexe Agentenerfahrungen in hochgradig übertragbare, deklarative Fähigkeiten verpackt werden können – ohne Parameteraktualisierungen, ohne externe Retrieval-Module und unter Verwendung von Open-Source-Modellen mit nur 35B Parametern.
English
Equipping Large Language Model (LLM) agents with domain-specific skills is critical for tackling complex tasks. Yet, manual authoring creates a severe scalability bottleneck. Conversely, automated skill generation often yields fragile or fragmented results because it either relies on shallow parametric knowledge or sequentially overfits to non-generalizable trajectory-local lessons. To overcome this, we introduce Trace2Skill, a framework that mirrors how human experts author skills: by holistically analyzing broad execution experience before distilling it into a single, comprehensive guide. Instead of reacting sequentially to individual trajectories, Trace2Skill dispatches a parallel fleet of sub-agents to analyze a diverse pool of executions. It extracts trajectory-specific lessons and hierarchically consolidates them into a unified, conflict-free skill directory via inductive reasoning. Trace2Skill supports both deepening existing human-written skills and creating new ones from scratch. Experiments in challenging domains, such as spreadsheet, VisionQA and math reasoning, show that Trace2Skill significantly improves upon strong baselines, including Anthropic's official xlsx skills. Crucially, this trajectory-grounded evolution does not merely memorize task instances or model-specific quirks: evolved skills transfer across LLM scales and generalize to OOD settings. For example, skills evolved by Qwen3.5-35B on its own trajectories improved a Qwen3.5-122B agent by up to 57.65 absolute percentage points on WikiTableQuestions. Ultimately, our results demonstrate that complex agent experience can be packaged into highly transferable, declarative skills -- requiring no parameter updates, no external retrieval modules, and utilizing open-source models as small as 35B parameters.