ChatPaper.aiChatPaper

Feinkörnige steuerbare Videogenerierung durch Objekterscheinung und Kontext

Fine-grained Controllable Video Generation via Object Appearance and Context

December 5, 2023
Autoren: Hsin-Ping Huang, Yu-Chuan Su, Deqing Sun, Lu Jiang, Xuhui Jia, Yukun Zhu, Ming-Hsuan Yang
cs.AI

Zusammenfassung

Die Text-zu-Video-Generierung hat vielversprechende Ergebnisse gezeigt. Allerdings haben Benutzer oft Schwierigkeiten, detaillierte Informationen bereitzustellen, um die Ausgabe des Modells präzise zu steuern, wenn nur natürliche Sprache als Eingabe verwendet wird. In dieser Arbeit schlagen wir die fein abgestimmte kontrollierbare Video-Generierung (FACTOR) vor, um eine detaillierte Steuerung zu erreichen. Konkret zielt FACTOR darauf ab, das Erscheinungsbild und den Kontext von Objekten, einschließlich ihrer Position und Kategorie, in Verbindung mit dem Textprompt zu kontrollieren. Um eine detaillierte Steuerung zu erreichen, schlagen wir ein einheitliches Framework vor, das Steuersignale gemeinsam in das bestehende Text-zu-Video-Modell einfügt. Unser Modell besteht aus einem gemeinsamen Encoder und adaptiven Cross-Attention-Schichten. Durch die Optimierung des Encoders und der eingefügten Schicht passen wir das Modell an, um Videos zu generieren, die sowohl mit den Textprompts als auch mit der fein abgestimmten Steuerung übereinstimmen. Im Vergleich zu bestehenden Methoden, die auf dichten Steuersignalen wie Kantenkarten basieren, bieten wir eine intuitivere und benutzerfreundlichere Schnittstelle, um eine objektbezogene fein abgestimmte Steuerung zu ermöglichen. Unsere Methode erreicht die Kontrollierbarkeit des Erscheinungsbilds von Objekten ohne Feinabstimmung, was den Optimierungsaufwand pro Subjekt für die Benutzer reduziert. Umfangreiche Experimente auf Standard-Benchmark-Datensätzen und benutzerbereitgestellten Eingaben bestätigen, dass unser Modell eine Verbesserung von 70 % in den Kontrollierbarkeitsmetriken gegenüber konkurrenzfähigen Baselines erzielt.
English
Text-to-video generation has shown promising results. However, by taking only natural languages as input, users often face difficulties in providing detailed information to precisely control the model's output. In this work, we propose fine-grained controllable video generation (FACTOR) to achieve detailed control. Specifically, FACTOR aims to control objects' appearances and context, including their location and category, in conjunction with the text prompt. To achieve detailed control, we propose a unified framework to jointly inject control signals into the existing text-to-video model. Our model consists of a joint encoder and adaptive cross-attention layers. By optimizing the encoder and the inserted layer, we adapt the model to generate videos that are aligned with both text prompts and fine-grained control. Compared to existing methods relying on dense control signals such as edge maps, we provide a more intuitive and user-friendly interface to allow object-level fine-grained control. Our method achieves controllability of object appearances without finetuning, which reduces the per-subject optimization efforts for the users. Extensive experiments on standard benchmark datasets and user-provided inputs validate that our model obtains a 70% improvement in controllability metrics over competitive baselines.
PDF130December 15, 2024