ChatPaper.aiChatPaper

JARVIS-VLA: Pós-treinamento de Modelos de Linguagem e Visão em Grande Escala para Jogar Jogos Visuais com Teclado e Mouse

JARVIS-VLA: Post-Training Large-Scale Vision Language Models to Play Visual Games with Keyboards and Mouse

March 20, 2025
Autores: Muyao Li, Zihao Wang, Kaichen He, Xiaojian Ma, Yitao Liang
cs.AI

Resumo

Recentemente, a tomada de decisão baseada em ações em ambientes de mundo aberto tem recebido atenção significativa. Modelos de Linguagem Visual e Ação (VLA), pré-treinados em grandes conjuntos de dados da web, têm mostrado potencial em tarefas de tomada de decisão. No entanto, trabalhos anteriores focaram principalmente na pós-treinamento de ações, muitas vezes negligenciando melhorias no modelo base. Em resposta, introduzimos uma nova abordagem, chamada "Agir a partir de Pós-Treinamento de Linguagem Visual", que refina Modelos de Linguagem Visual (VLMs) por meio de orientação visual e linguística de forma auto-supervisionada. Esse aprimoramento melhora as capacidades dos modelos em conhecimento do mundo, reconhecimento visual e fundamentação espacial em ambientes de mundo aberto. Seguindo os paradigmas de pós-treinamento mencionados, obtivemos os primeiros modelos VLA no Minecraft capazes de seguir instruções humanas em mais de 1.000 tarefas atômicas diferentes, incluindo criação, fundição, cozimento, mineração e combate. Nossos experimentos demonstram que o pós-treinamento em tarefas não relacionadas a trajetórias resulta em uma melhoria significativa de 40% em relação à melhor linha de base de agentes em um conjunto diversificado de tarefas atômicas. Além disso, mostramos que nossa abordagem supera políticas baseadas em aprendizado por imitação tradicionais no Minecraft, alcançando desempenho de ponta. Disponibilizamos o código, modelos e conjuntos de dados para promover pesquisas futuras. A página do projeto pode ser encontrada em https://craftjarvis.github.io/JarvisVLA.
English
Recently, action-based decision-making in open-world environments has gained significant attention. Visual Language Action (VLA) models, pretrained on large-scale web datasets, have shown promise in decision-making tasks. However, previous work has primarily focused on action post-training, often neglecting enhancements to the foundational model itself. In response, we introduce a novel approach, Act from Visual Language Post-Training, which refines Visual Language Models (VLMs) through visual and linguistic guidance in a self-supervised manner. This enhancement improves the models' capabilities in world knowledge, visual recognition, and spatial grounding in open-world environments. Following the above post-training paradigms, we obtain the first VLA models in Minecraft that can follow human instructions on over 1k different atomic tasks, including crafting, smelting, cooking, mining, and killing. Our experiments demonstrate that post-training on non-trajectory tasks leads to a significant 40% improvement over the best agent baseline on a diverse set of atomic tasks. Furthermore, we demonstrate that our approach surpasses traditional imitation learning-based policies in Minecraft, achieving state-of-the-art performance. We have open-sourced the code, models, and datasets to foster further research. The project page can be found in https://craftjarvis.github.io/JarvisVLA.

Summary

AI-Generated Summary

PDF402March 21, 2025