ChatPaper.aiChatPaper

Fijnmazige beheersbare videogeneratie via objectverschijning en context

Fine-grained Controllable Video Generation via Object Appearance and Context

December 5, 2023
Auteurs: Hsin-Ping Huang, Yu-Chuan Su, Deqing Sun, Lu Jiang, Xuhui Jia, Yukun Zhu, Ming-Hsuan Yang
cs.AI

Samenvatting

Tekst-naar-video-generatie heeft veelbelovende resultaten laten zien. Door echter alleen natuurlijke taal als invoer te gebruiken, hebben gebruikers vaak moeite om gedetailleerde informatie te verstrekken om de uitvoer van het model nauwkeurig te beheersen. In dit werk stellen we fijnmazig beheerbare videogeneratie (FACTOR) voor om gedetailleerde controle te bereiken. Specifiek streeft FACTOR ernaar om het uiterlijk en de context van objecten, inclusief hun locatie en categorie, in samenhang met de tekstprompt te beheersen. Om gedetailleerde controle te bereiken, stellen we een uniform raamwerk voor om gezamenlijk controlesignalen in het bestaande tekst-naar-video-model te injecteren. Ons model bestaat uit een gezamenlijke encoder en adaptieve cross-attentielagen. Door de encoder en de ingevoegde laag te optimaliseren, passen we het model aan om video's te genereren die zijn afgestemd op zowel tekstprompts als fijnmazige controle. In vergelijking met bestaande methoden die vertrouwen op dichte controlesignalen zoals edge maps, bieden we een meer intuïtieve en gebruiksvriendelijke interface om objectniveau fijnmazige controle mogelijk te maken. Onze methode bereikt beheersbaarheid van objectuiterlijk zonder fine-tuning, wat de optimalisatie-inspanningen per onderwerp voor gebruikers vermindert. Uitgebreide experimenten op standaard benchmarkdatasets en door gebruikers verstrekte invoer valideren dat ons model een verbetering van 70% behaalt in beheersbaarheidsmetrieken ten opzichte van concurrerende basislijnen.
English
Text-to-video generation has shown promising results. However, by taking only natural languages as input, users often face difficulties in providing detailed information to precisely control the model's output. In this work, we propose fine-grained controllable video generation (FACTOR) to achieve detailed control. Specifically, FACTOR aims to control objects' appearances and context, including their location and category, in conjunction with the text prompt. To achieve detailed control, we propose a unified framework to jointly inject control signals into the existing text-to-video model. Our model consists of a joint encoder and adaptive cross-attention layers. By optimizing the encoder and the inserted layer, we adapt the model to generate videos that are aligned with both text prompts and fine-grained control. Compared to existing methods relying on dense control signals such as edge maps, we provide a more intuitive and user-friendly interface to allow object-level fine-grained control. Our method achieves controllability of object appearances without finetuning, which reduces the per-subject optimization efforts for the users. Extensive experiments on standard benchmark datasets and user-provided inputs validate that our model obtains a 70% improvement in controllability metrics over competitive baselines.
PDF130December 15, 2024