ChatPaper.aiChatPaper

XSkill : Apprentissage continu à partir de l'expérience et des compétences dans les agents multimodaux

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

March 12, 2026
Auteurs: Guanyu Jiang, Zhaochen Su, Xiaoye Qu, Yi R., Fung
cs.AI

Résumé

Les agents multimodaux peuvent désormais traiter des tâches de raisonnement complexes avec divers outils, mais ils souffrent encore d'une utilisation inefficace des outils et d'une orchestration rigide dans des environnements ouverts. Un défi central consiste à permettre à ces agents de s'améliorer continuellement sans mise à jour des paramètres en apprenant des trajectoires passées. Nous identifions deux formes complémentaires de connaissances réutilisables essentielles pour cet objectif : les expériences, fournissant des conseils concis au niveau actionnel pour la sélection d'outils et la prise de décision, et les compétences, fournissant des conseils structurés au niveau tâche pour la planification et l'utilisation d'outils. À cette fin, nous proposons XSkill, un framework à double flux pour l'apprentissage continu à partir des expériences et des compétences dans les agents multimodaux. XSkill ancre à la fois l'extraction et la récupération des connaissances dans les observations visuelles. Pendant l'accumulation, XSkill distille et consolide les expériences et les compétences à partir de déploiements multi-chemins via une synthèse visuellement ancrée et une critique croisée entre les déploiements. Pendant l'inférence, il récupère et adapte ces connaissances au contexte visuel actuel et renvoie l'historique d'utilisation dans l'accumulation pour former une boucle d'apprentissage continu. Évalué sur cinq benchmarks couvrant divers domaines avec quatre modèles de base, XSkill surpasse constamment et substantiellement les lignes de base basées uniquement sur les outils et celles reposant sur l'apprentissage. Une analyse plus poussée révèle que les deux flux de connaissances jouent des rôles complémentaires dans l'influence des comportements de raisonnement des agents et démontrent une généralisation zero-shot supérieure.
English
Multimodal agents can now tackle complex reasoning tasks with diverse tools, yet they still suffer from inefficient tool use and inflexible orchestration in open-ended settings. A central challenge is enabling such agents to continually improve without parameter updates by learning from past trajectories. We identify two complementary forms of reusable knowledge essential for this goal: experiences, providing concise action-level guidance for tool selection and decision making, and skills, providing structured task-level guidance for planning and tool use. To this end, we propose XSkill, a dual-stream framework for continual learning from experience and skills in multimodal agents. XSkill grounds both knowledge extraction and retrieval in visual observations. During accumulation, XSkill distills and consolidates experiences and skills from multi-path rollouts via visually grounded summarization and cross-rollout critique. During inference, it retrieves and adapts this knowledge to the current visual context and feeds usage history back into accumulation to form a continual learning loop. Evaluated on five benchmarks across diverse domains with four backbone models, XSkill consistently and substantially outperforms both tool-only and learning-based baselines. Further analysis reveals that the two knowledge streams play complementary roles in influencing the reasoning behaviors of agents and show superior zero-shot generalization.
PDF202March 15, 2026