ChatPaper.aiChatPaper

XSkill: Kontinuierliches Lernen aus Erfahrungen und Fähigkeiten in multimodalen Agenten

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

March 12, 2026
Autoren: Guanyu Jiang, Zhaochen Su, Xiaoye Qu, Yi R., Fung
cs.AI

Zusammenfassung

Multimodale Agenten können inzwischen komplexe Argumentationsaufgaben mit verschiedenen Werkzeugen bewältigen, leiden jedoch weiterhin unter ineffizienter Werkzeugnutzung und unflexibler Orchestrierung in offenen Umgebungen. Eine zentrale Herausforderung besteht darin, solchen Agenten zu ermöglichen, sich kontinuierlich ohne Parameteraktualisierungen durch Lernen aus vergangenen Trajektorien zu verbessern. Wir identifizieren zwei komplementäre Formen von wiederverwendbarem Wissen, die für dieses Ziel wesentlich sind: Erfahrungen, die präzise Handlungsanleitungen für die Werkzeugauswahl und Entscheidungsfindung bieten, und Fähigkeiten (Skills), die strukturierte Aufgabenanleitungen für die Planung und Werkzeugnutzung bereitstellen. Zu diesem Zweck schlagen wir XSkill vor, ein Dual-Stream-Framework für kontinuierliches Lernen aus Erfahrungen und Fähigkeiten in multimodalen Agenten. XSkill verankert sowohl die Wissensextraktion als auch den Wissensabruf in visuellen Beobachtungen. Während der Akkumulation destilliert und konsolidiert XSkill Erfahrungen und Fähigkeiten aus Multi-Path-Rollouts mittels visuell gestützter Zusammenfassung und übergreifender Bewertung der Rollouts. Während der Inferenz ruft es dieses Wissen ab, passt es an den aktuellen visuellen Kontext an und speist die Nutzungshistorie zurück in die Akkumulation, um eine kontinuierliche Lernschleife zu bilden. Evaluierungen auf fünf Benchmarks aus verschiedenen Domänen mit vier Basismodellen zeigen, dass XSkill durchgängig und erheblich sowohl werkzeugbasierte als auch lernbasierte Baseline-Methoden übertrifft. Eine weiterführende Analyse zeigt, dass die beiden Wissensströme komplementäre Rollen bei der Beeinflussung des Argumentationsverhaltens der Agenten spielen und eine überlegene Zero-Shot-Generalisierung aufweisen.
English
Multimodal agents can now tackle complex reasoning tasks with diverse tools, yet they still suffer from inefficient tool use and inflexible orchestration in open-ended settings. A central challenge is enabling such agents to continually improve without parameter updates by learning from past trajectories. We identify two complementary forms of reusable knowledge essential for this goal: experiences, providing concise action-level guidance for tool selection and decision making, and skills, providing structured task-level guidance for planning and tool use. To this end, we propose XSkill, a dual-stream framework for continual learning from experience and skills in multimodal agents. XSkill grounds both knowledge extraction and retrieval in visual observations. During accumulation, XSkill distills and consolidates experiences and skills from multi-path rollouts via visually grounded summarization and cross-rollout critique. During inference, it retrieves and adapts this knowledge to the current visual context and feeds usage history back into accumulation to form a continual learning loop. Evaluated on five benchmarks across diverse domains with four backbone models, XSkill consistently and substantially outperforms both tool-only and learning-based baselines. Further analysis reveals that the two knowledge streams play complementary roles in influencing the reasoning behaviors of agents and show superior zero-shot generalization.
PDF202March 15, 2026