Lassen Sie Pixel tanzen: Hochdynamische Videogenerierung
Make Pixels Dance: High-Dynamic Video Generation
November 18, 2023
Autoren: Yan Zeng, Guoqiang Wei, Jiani Zheng, Jiaxin Zou, Yang Wei, Yuchen Zhang, Hang Li
cs.AI
Zusammenfassung
Die Erstellung hochdynamischer Videos, wie bewegungsreiche Aktionen und anspruchsvolle visuelle Effekte, stellt eine erhebliche Herausforderung im Bereich der künstlichen Intelligenz dar. Leider neigen aktuelle state-of-the-art Methoden zur Videogenerierung, die sich hauptsächlich auf die Text-zu-Video-Generierung konzentrieren, dazu, Videoclips mit minimalen Bewegungen zu erzeugen, obwohl sie eine hohe Bildtreue beibehalten. Wir argumentieren, dass sich allein auf Textanweisungen zu verlassen, für die Videogenerierung unzureichend und suboptimal ist. In diesem Artikel stellen wir PixelDance vor, einen neuartigen Ansatz auf der Grundlage von Diffusionsmodellen, der Bildanweisungen für den ersten und letzten Frame in Kombination mit Textanweisungen für die Videogenerierung einbezieht. Umfassende experimentelle Ergebnisse zeigen, dass PixelDance, das mit öffentlichen Daten trainiert wurde, eine deutlich bessere Fähigkeit zur Synthese von Videos mit komplexen Szenen und detaillierten Bewegungen aufweist und damit einen neuen Standard für die Videogenerierung setzt.
English
Creating high-dynamic videos such as motion-rich actions and sophisticated
visual effects poses a significant challenge in the field of artificial
intelligence. Unfortunately, current state-of-the-art video generation methods,
primarily focusing on text-to-video generation, tend to produce video clips
with minimal motions despite maintaining high fidelity. We argue that relying
solely on text instructions is insufficient and suboptimal for video
generation. In this paper, we introduce PixelDance, a novel approach based on
diffusion models that incorporates image instructions for both the first and
last frames in conjunction with text instructions for video generation.
Comprehensive experimental results demonstrate that PixelDance trained with
public data exhibits significantly better proficiency in synthesizing videos
with complex scenes and intricate motions, setting a new standard for video
generation.