ChatPaper.aiChatPaper

XSkill: Непрерывное обучение на основе опыта и навыков в мультимодальных агентах

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

March 12, 2026
Авторы: Guanyu Jiang, Zhaochen Su, Xiaoye Qu, Yi R., Fung
cs.AI

Аннотация

Мультимодальные агенты уже способны решать сложные задачи рассуждений с использованием разнообразных инструментов, однако они по-прежнему страдают от неэффективного использования инструментов и негибкого управления в открытых средах. Ключевой проблемой является обеспечение возможности постоянного улучшения таких агентов без обновления параметров за счет обучения на основе предыдущих траекторий. Мы выделяем две взаимодополняющие формы переиспользуемых знаний, необходимых для достижения этой цели: *опыт*, предоставляющий краткие рекомендации на уровне действий для выбора инструментов и принятия решений, и *навыки*, предоставляющие структурированные рекомендации на уровне задач для планирования и использования инструментов. С этой целью мы предлагаем XSkill — двухпоточную архитектуру для непрерывного обучения на основе опыта и навыков в мультимодальных агентах. XSkill основывает как извлечение, так и поиск знаний на визуальных наблюдениях. На этапе накопления XSkill выделяет и консолидирует опыт и навыки из множественных прогонов с помощью визуально обоснованного суммирования и кросс-прогонной критики. На этапе вывода система извлекает и адаптирует эти знания к текущему визуальному контексту, а также передает историю использования обратно в процесс накопления, формируя петлю непрерывного обучения. Оценка на пяти тестовых наборах из различных областей с четырьмя базовыми моделями показала, что XSkill стабильно и существенно превосходит как базовые методы, использующие только инструменты, так и подходы, основанные на обучении. Дальнейший анализ показывает, что два потока знаний играют взаимодополняющую роль в формировании поведения рассуждений агентов и демонстрируют превосходную способность к обобщению в условиях zero-shot.
English
Multimodal agents can now tackle complex reasoning tasks with diverse tools, yet they still suffer from inefficient tool use and inflexible orchestration in open-ended settings. A central challenge is enabling such agents to continually improve without parameter updates by learning from past trajectories. We identify two complementary forms of reusable knowledge essential for this goal: experiences, providing concise action-level guidance for tool selection and decision making, and skills, providing structured task-level guidance for planning and tool use. To this end, we propose XSkill, a dual-stream framework for continual learning from experience and skills in multimodal agents. XSkill grounds both knowledge extraction and retrieval in visual observations. During accumulation, XSkill distills and consolidates experiences and skills from multi-path rollouts via visually grounded summarization and cross-rollout critique. During inference, it retrieves and adapts this knowledge to the current visual context and feeds usage history back into accumulation to form a continual learning loop. Evaluated on five benchmarks across diverse domains with four backbone models, XSkill consistently and substantially outperforms both tool-only and learning-based baselines. Further analysis reveals that the two knowledge streams play complementary roles in influencing the reasoning behaviors of agents and show superior zero-shot generalization.
PDF202March 15, 2026