ChatPaper.aiChatPaper

LeviTor: 3D-Trajektorie-orientierte Bild-zu-Video-Synthese

LeviTor: 3D Trajectory Oriented Image-to-Video Synthesis

December 19, 2024
Autoren: Hanlin Wang, Hao Ouyang, Qiuyu Wang, Wen Wang, Ka Leong Cheng, Qifeng Chen, Yujun Shen, Limin Wang
cs.AI

Zusammenfassung

Die intuitive Natur der ziehbasierten Interaktion hat zu ihrer zunehmenden Akzeptanz bei der Steuerung von Objekttrajektorien in der Bild-zu-Video-Synthese geführt. Dennoch stehen bestehende Methoden, die das Ziehen im 2D-Raum durchführen, in der Regel vor Unklarheiten beim Umgang mit Bewegungen außerhalb der Ebene. In dieser Arbeit erweitern wir die Interaktion um eine neue Dimension, nämlich die Tiefendimension, sodass Benutzer jedem Punkt auf der Trajektorie eine relative Tiefe zuweisen können. Auf diese Weise erbt unser neues Interaktionsparadigma nicht nur die Bequemlichkeit des 2D-Ziehens, sondern erleichtert auch die Trajektoriensteuerung im 3D-Raum, wodurch der Kreativitätsspielraum erweitert wird. Wir schlagen eine wegweisende Methode für die 3D-Trajektoriensteuerung in der Bild-zu-Video-Synthese vor, indem wir Objektmasken in einige Clusterpunkte abstrahieren. Diese Punkte, zusammen mit den Tiefeninformationen und den Instanzinformationen, werden schließlich als Steuersignal in ein Videodiffusionsmodell eingespeist. Umfangreiche Experimente bestätigen die Wirksamkeit unseres Ansatzes, genannt LeviTor, bei der präzisen Manipulation der Objektbewegungen bei der Erstellung fotorealistischer Videos aus statischen Bildern. Projektseite: https://ppetrichor.github.io/levitor.github.io/
English
The intuitive nature of drag-based interaction has led to its growing adoption for controlling object trajectories in image-to-video synthesis. Still, existing methods that perform dragging in the 2D space usually face ambiguity when handling out-of-plane movements. In this work, we augment the interaction with a new dimension, i.e., the depth dimension, such that users are allowed to assign a relative depth for each point on the trajectory. That way, our new interaction paradigm not only inherits the convenience from 2D dragging, but facilitates trajectory control in the 3D space, broadening the scope of creativity. We propose a pioneering method for 3D trajectory control in image-to-video synthesis by abstracting object masks into a few cluster points. These points, accompanied by the depth information and the instance information, are finally fed into a video diffusion model as the control signal. Extensive experiments validate the effectiveness of our approach, dubbed LeviTor, in precisely manipulating the object movements when producing photo-realistic videos from static images. Project page: https://ppetrichor.github.io/levitor.github.io/

Summary

AI-Generated Summary

PDF153December 20, 2024