ChatPaper.aiChatPaper

Assista e Aprenda: Aprendendo a Usar Computadores com Vídeos Online

Watch and Learn: Learning to Use Computers from Online Videos

October 6, 2025
Autores: Chan Hee Song, Yiwen Song, Palash Goyal, Yu Su, Oriana Riva, Hamid Palangi, Tomas Pfister
cs.AI

Resumo

Agentes de uso de computador (CUAs) precisam planejar fluxos de trabalho de tarefas fundamentados em diversas aplicações e ambientes em constante mudança, mas o aprendizado é dificultado pela escassez de dados de treinamento em larga escala e de alta qualidade na aplicação alvo. Os conjuntos de dados existentes são específicos de domínio, estáticos e custosos de anotar, enquanto os métodos atuais de geração de dados sintéticos frequentemente produzem demonstrações de tarefas simplistas ou desalinhadas. Para abordar essas limitações, introduzimos o Watch & Learn (W&L), um framework que converte vídeos de demonstrações humanas facilmente disponíveis na Internet em trajetórias de UI executáveis em larga escala. Em vez de gerar trajetórias diretamente ou depender de heurísticas de raciocínio ad hoc, formulamos o problema como um objetivo de dinâmica inversa: prever a ação do usuário a partir de estados consecutivos da tela. Essa formulação reduz a engenharia manual, é mais fácil de aprender e generaliza de forma mais robusta entre aplicações. Concretamente, desenvolvemos um pipeline de rotulagem de dinâmica inversa com recuperação de vídeos consciente da tarefa, geramos mais de 53 mil trajetórias de alta qualidade a partir de vídeos brutos da web, e demonstramos que essas trajetórias melhoram os CUAs tanto como demonstrações em contexto quanto como dados de treinamento supervisionados. No desafiador benchmark OSWorld, as trajetórias de UI extraídas com o W&L consistentemente aprimoram tanto frameworks de propósito geral quanto os mais avançados em contexto, e proporcionam ganhos mais robustos para modelos de código aberto sob treinamento supervisionado. Esses resultados destacam os vídeos de demonstrações humanas em escala da web como uma base prática e escalável para avançar os CUAs em direção à implantação no mundo real.
English
Computer use agents (CUAs) need to plan task workflows grounded in diverse, ever-changing applications and environments, but learning is hindered by the scarcity of large-scale, high-quality training data in the target application. Existing datasets are domain-specific, static, and costly to annotate, while current synthetic data generation methods often yield simplistic or misaligned task demonstrations. To address these limitations, we introduce Watch & Learn (W&L), a framework that converts human demonstration videos readily available on the Internet into executable UI trajectories at scale. Instead of directly generating trajectories or relying on ad hoc reasoning heuristics, we cast the problem as an inverse dynamics objective: predicting the user's action from consecutive screen states. This formulation reduces manual engineering, is easier to learn, and generalizes more robustly across applications. Concretely, we develop an inverse dynamics labeling pipeline with task-aware video retrieval, generate over 53k high-quality trajectories from raw web videos, and demonstrate that these trajectories improve CUAs both as in-context demonstrations and as supervised training data. On the challenging OSWorld benchmark, UI trajectories extracted with W&L consistently enhance both general-purpose and state-of-the-art frameworks in-context, and deliver stronger gains for open-source models under supervised training. These results highlight web-scale human demonstration videos as a practical and scalable foundation for advancing CUAs towards real-world deployment.
PDF102October 7, 2025