TrajectoryMover: Movimento Generativo delle Traiettorie degli Oggetti nei Video
TrajectoryMover: Generative Movement of Object Trajectories in Videos
March 31, 2026
Autori: Kiran Chhatre, Hyeonho Jeong, Yulia Gryaditskaya, Christopher E. Peters, Chun-Hao Paul Huang, Paul Guerrero
cs.AI
Abstract
L'editing video generativo ha reso possibili diverse operazioni di modifica intuitive per brevi videoclip che in precedenza sarebbero state difficili da realizzare, specialmente per editor non esperti. I metodi esistenti si concentrano sul prescrivere la traiettoria del movimento 3D o 2D di un oggetto in un video, o sull'alterare l'aspetto di un oggetto o di una scena, preservando sia la plausibilità del video che l'identità. Tuttavia, un metodo per spostare la traiettoria del movimento 3D di un oggetto in un video, ovvero spostare un oggetto preservandone il movimento relativo 3D, è attualmente ancora assente. La sfida principale risiede nell'ottenere dati video accoppiati per questo scenario. I metodi precedenti tipicamente si affidano ad approcci intelligenti di generazione dei dati per costruire dati accoppiati plausibili a partire da video non accoppiati, ma questo approccio fallisce se uno dei video in una coppia non può essere facilmente costruito a partire dall'altro. Invece, introduciamo TrajectoryAtlas, una nuova pipeline di generazione dati per dati video sintetici accoppiati su larga scala e un generatore video, TrajectoryMover, messo a punto con questi dati. Dimostriamo che ciò abilita con successo lo spostamento generativo delle traiettorie degli oggetti. Pagina del progetto: https://chhatrekiran.github.io/trajectorymover
English
Generative video editing has enabled several intuitive editing operations for short video clips that would previously have been difficult to achieve, especially for non-expert editors. Existing methods focus on prescribing an object's 3D or 2D motion trajectory in a video, or on altering the appearance of an object or a scene, while preserving both the video's plausibility and identity. Yet a method to move an object's 3D motion trajectory in a video, i.e., moving an object while preserving its relative 3D motion, is currently still missing. The main challenge lies in obtaining paired video data for this scenario. Previous methods typically rely on clever data generation approaches to construct plausible paired data from unpaired videos, but this approach fails if one of the videos in a pair can not easily be constructed from the other. Instead, we introduce TrajectoryAtlas, a new data generation pipeline for large-scale synthetic paired video data and a video generator TrajectoryMover fine-tuned with this data. We show that this successfully enables generative movement of object trajectories. Project page: https://chhatrekiran.github.io/trajectorymover