Trace2Skill : Distiller les leçons locales des trajectoires en compétences transférables pour agents
Trace2Skill: Distill Trajectory-Local Lessons into Transferable Agent Skills
March 26, 2026
Auteurs: Jingwei Ni, Yihao Liu, Xinpeng Liu, Yutao Sun, Mengyu Zhou, Pengyu Cheng, Dexin Wang, Xiaoxi Jiang, Guanjun Jiang
cs.AI
Résumé
L'équipement des agents de grands modèles de langage (LLM) avec des compétences spécialisées est crucial pour résoudre des tâches complexes. Cependant, la création manuelle constitue un goulot d'étranglement sévère pour la mise à l'échelle. À l'inverse, la génération automatique de compétences produit souvent des résultats fragiles ou fragmentés, car elle repose soit sur une connaissance paramétrique superficielle, soit sur un surajustement séquentiel à des leçons locales non généralisables. Pour surmonter cela, nous présentons Trace2Skill, un cadre qui reproduit la manière dont les experts humains conçoivent des compétences : en analysant holistiquement une large expérience d'exécution avant de la distiller en un guide unique et complet. Au lieu de réagir séquentiellement à des trajectoires individuelles, Trace2Skill déploie une flotte parallèle de sous-agents pour analyser un pool diversifié d'exécutions. Il extrait des leçons spécifiques à chaque trajectoire et les consolide hiérarchiquement en un répertoire de compétences unifié et sans conflit via un raisonnement inductif. Trace2Skill prend en charge à la fois l'approfondissement de compétences existantes écrites par l'homme et la création de nouvelles compétences à partir de zéro. Les expériences dans des domaines difficiles, tels que les tableurs, VisionQA et le raisonnement mathématique, montrent que Trace2Skill améliore significativement les performances par rapport à des bases de référence solides, y compris les compétences xlsx officielles d'Anthropic. Fait crucial, cette évolution ancrée dans les trajectoires ne se contente pas de mémoriser des instances de tâches ou des particularités spécifiques à un modèle : les compétences évoluées se transfèrent à différentes échelles de LLM et se généralisent à des configurations hors distribution (OOD). Par exemple, des compétences développées par Qwen3.5-35B sur ses propres trajectoires ont amélioré un agent Qwen3.5-122B de jusqu'à 57,65 points de pourcentage absolus sur WikiTableQuestions. Enfin, nos résultats démontrent que l'expérience complexe d'un agent peut être conditionnée en compétences déclaratives hautement transférables – sans nécessiter de mise à jour des paramètres, ni de modules externes de récupération, et en utilisant des modèles open-source d'une taille aussi réduite que 35 milliards de paramètres.
English
Equipping Large Language Model (LLM) agents with domain-specific skills is critical for tackling complex tasks. Yet, manual authoring creates a severe scalability bottleneck. Conversely, automated skill generation often yields fragile or fragmented results because it either relies on shallow parametric knowledge or sequentially overfits to non-generalizable trajectory-local lessons. To overcome this, we introduce Trace2Skill, a framework that mirrors how human experts author skills: by holistically analyzing broad execution experience before distilling it into a single, comprehensive guide. Instead of reacting sequentially to individual trajectories, Trace2Skill dispatches a parallel fleet of sub-agents to analyze a diverse pool of executions. It extracts trajectory-specific lessons and hierarchically consolidates them into a unified, conflict-free skill directory via inductive reasoning. Trace2Skill supports both deepening existing human-written skills and creating new ones from scratch. Experiments in challenging domains, such as spreadsheet, VisionQA and math reasoning, show that Trace2Skill significantly improves upon strong baselines, including Anthropic's official xlsx skills. Crucially, this trajectory-grounded evolution does not merely memorize task instances or model-specific quirks: evolved skills transfer across LLM scales and generalize to OOD settings. For example, skills evolved by Qwen3.5-35B on its own trajectories improved a Qwen3.5-122B agent by up to 57.65 absolute percentage points on WikiTableQuestions. Ultimately, our results demonstrate that complex agent experience can be packaged into highly transferable, declarative skills -- requiring no parameter updates, no external retrieval modules, and utilizing open-source models as small as 35B parameters.