ChatPaper.aiChatPaper

Agente-para-Sim: Aprendizado de Modelos de Comportamento Interativo a partir de Vídeos Longitudinais Informais.

Agent-to-Sim: Learning Interactive Behavior Models from Casual Longitudinal Videos

October 21, 2024
Autores: Gengshan Yang, Andrea Bajcsy, Shunsuke Saito, Angjoo Kanazawa
cs.AI

Resumo

Apresentamos o Agent-to-Sim (ATS), um framework para aprender modelos de comportamento interativo de agentes 3D a partir de coleções casuais de vídeos longitudinais. Diferentemente de trabalhos anteriores que dependem de rastreamento baseado em marcadores e câmeras multivisão, o ATS aprende comportamentos naturais de agentes animais e humanos de forma não invasiva por meio de observações em vídeo gravadas ao longo de um longo período de tempo (por exemplo, um mês) em um único ambiente. Modelar o comportamento 3D de um agente requer rastreamento 3D persistente (por exemplo, saber qual ponto corresponde a qual) ao longo de um longo período de tempo. Para obter tais dados, desenvolvemos um método de registro de baixo para alto que rastreia o agente e a câmera ao longo do tempo por meio de um espaço 3D canônico, resultando em uma representação 4D espaço-tempo completa e persistente. Em seguida, treinamos um modelo generativo de comportamentos de agentes usando dados em pares de percepção e movimento de um agente consultados a partir da reconstrução 4D. O ATS possibilita a transferência de realidade para simulação a partir de gravações de vídeo de um agente para um simulador de comportamento interativo. Demonstramos resultados em animais de estimação (por exemplo, gato, cachorro, coelho) e humanos, a partir de vídeos RGBD monoculares capturados por um smartphone.
English
We present Agent-to-Sim (ATS), a framework for learning interactive behavior models of 3D agents from casual longitudinal video collections. Different from prior works that rely on marker-based tracking and multiview cameras, ATS learns natural behaviors of animal and human agents non-invasively through video observations recorded over a long time-span (e.g., a month) in a single environment. Modeling 3D behavior of an agent requires persistent 3D tracking (e.g., knowing which point corresponds to which) over a long time period. To obtain such data, we develop a coarse-to-fine registration method that tracks the agent and the camera over time through a canonical 3D space, resulting in a complete and persistent spacetime 4D representation. We then train a generative model of agent behaviors using paired data of perception and motion of an agent queried from the 4D reconstruction. ATS enables real-to-sim transfer from video recordings of an agent to an interactive behavior simulator. We demonstrate results on pets (e.g., cat, dog, bunny) and human given monocular RGBD videos captured by a smartphone.

Summary

AI-Generated Summary

PDF52November 16, 2024