LeviTor: Síntesis de Imagen a Video Orientada a Trayectorias 3D
LeviTor: 3D Trajectory Oriented Image-to-Video Synthesis
December 19, 2024
Autores: Hanlin Wang, Hao Ouyang, Qiuyu Wang, Wen Wang, Ka Leong Cheng, Qifeng Chen, Yujun Shen, Limin Wang
cs.AI
Resumen
La naturaleza intuitiva de la interacción basada en arrastre ha llevado a su creciente adopción para controlar las trayectorias de objetos en la síntesis de imagen a video. Sin embargo, los métodos existentes que realizan el arrastre en el espacio 2D suelen enfrentar ambigüedad al manejar movimientos fuera del plano. En este trabajo, ampliamos la interacción con una nueva dimensión, es decir, la dimensión de profundidad, de modo que los usuarios pueden asignar una profundidad relativa para cada punto en la trayectoria. De esta manera, nuestro nuevo paradigma de interacción no solo hereda la conveniencia del arrastre en 2D, sino que facilita el control de trayectorias en el espacio 3D, ampliando el alcance de la creatividad. Proponemos un método pionero para el control de trayectorias en 3D en la síntesis de imagen a video mediante la abstracción de máscaras de objetos en unos pocos puntos de agrupación. Estos puntos, junto con la información de profundidad y la información de instancia, se alimentan finalmente en un modelo de difusión de video como la señal de control. Experimentos extensos validan la efectividad de nuestro enfoque, denominado LeviTor, en manipular con precisión los movimientos de objetos al producir videos fotorrealistas a partir de imágenes estáticas. Página del proyecto: https://ppetrichor.github.io/levitor.github.io/
English
The intuitive nature of drag-based interaction has led to its growing
adoption for controlling object trajectories in image-to-video synthesis.
Still, existing methods that perform dragging in the 2D space usually face
ambiguity when handling out-of-plane movements. In this work, we augment the
interaction with a new dimension, i.e., the depth dimension, such that users
are allowed to assign a relative depth for each point on the trajectory. That
way, our new interaction paradigm not only inherits the convenience from 2D
dragging, but facilitates trajectory control in the 3D space, broadening the
scope of creativity. We propose a pioneering method for 3D trajectory control
in image-to-video synthesis by abstracting object masks into a few cluster
points. These points, accompanied by the depth information and the instance
information, are finally fed into a video diffusion model as the control
signal. Extensive experiments validate the effectiveness of our approach,
dubbed LeviTor, in precisely manipulating the object movements when producing
photo-realistic videos from static images. Project page:
https://ppetrichor.github.io/levitor.github.io/Summary
AI-Generated Summary