ChatPaper.aiChatPaper

XSkill: Continueel Leren op Basis van Ervaring en Vaardigheden in Multimodale Agenten

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

March 12, 2026
Auteurs: Guanyu Jiang, Zhaochen Su, Xiaoye Qu, Yi R., Fung
cs.AI

Samenvatting

Multimodale agenten kunnen nu complexe redeneertaken aan met diverse tools, maar ze lijden nog steeds aan inefficiënt toolgebruik en inflexibele coördinatie in open-ended omgevingen. Een centrale uitdaging is het in staat stellen van dergelijke agenten om continu te verbeteren zonder parameterupdates, door te leren van eerdere trajecten. Wij identificeren twee complementaire vormen van herbruikbare kennis die essentieel zijn voor dit doel: ervaringen, die beknopte actieniveau-richtlijnen bieden voor toolselectie en besluitvorming, en vaardigheden, die gestructureerde taakniveau-richtlijnen bieden voor planning en toolgebruik. Hiertoe stellen wij XSkill voor, een dual-stream raamwerk voor continu leren uit ervaringen en vaardigheden in multimodale agenten. XSkill verankert zowel kennisextractie als -retrieval in visuele observaties. Tijdens accumulatie destilleert en consolideert XSkill ervaringen en vaardigheden uit multi-pad rollouts via visueel onderbouwde samenvatting en cross-rollout kritiek. Tijdens inferentie retrieveert en past het deze kennis aan aan de huidige visuele context en voert het gebruikshistorie terug naar de accumulatie om een continue leerlus te vormen. Evaluatie op vijf benchmarks in diverse domeinen met vier backbone-modellen toont aan dat XSkill consistent en aanzienlijk beter presteert dan zowel tool-only als op leren gebaseerde baseline-methoden. Verdere analyse onthult dat de twee kennisdynamieken een complementaire rol spelen in het beïnvloeden van het redeneergedrag van agenten en superieure zero-shot generalisatie vertonen.
English
Multimodal agents can now tackle complex reasoning tasks with diverse tools, yet they still suffer from inefficient tool use and inflexible orchestration in open-ended settings. A central challenge is enabling such agents to continually improve without parameter updates by learning from past trajectories. We identify two complementary forms of reusable knowledge essential for this goal: experiences, providing concise action-level guidance for tool selection and decision making, and skills, providing structured task-level guidance for planning and tool use. To this end, we propose XSkill, a dual-stream framework for continual learning from experience and skills in multimodal agents. XSkill grounds both knowledge extraction and retrieval in visual observations. During accumulation, XSkill distills and consolidates experiences and skills from multi-path rollouts via visually grounded summarization and cross-rollout critique. During inference, it retrieves and adapts this knowledge to the current visual context and feeds usage history back into accumulation to form a continual learning loop. Evaluated on five benchmarks across diverse domains with four backbone models, XSkill consistently and substantially outperforms both tool-only and learning-based baselines. Further analysis reveals that the two knowledge streams play complementary roles in influencing the reasoning behaviors of agents and show superior zero-shot generalization.
PDF312March 24, 2026