ChatPaper.aiChatPaper

Generazione di video controllabile a grana fine tramite aspetto e contesto degli oggetti

Fine-grained Controllable Video Generation via Object Appearance and Context

December 5, 2023
Autori: Hsin-Ping Huang, Yu-Chuan Su, Deqing Sun, Lu Jiang, Xuhui Jia, Yukun Zhu, Ming-Hsuan Yang
cs.AI

Abstract

La generazione di video da testo ha mostrato risultati promettenti. Tuttavia, utilizzando solo linguaggi naturali come input, gli utenti spesso incontrano difficoltà nel fornire informazioni dettagliate per controllare con precisione l'output del modello. In questo lavoro, proponiamo la generazione di video controllabile a livello fine (FACTOR) per ottenere un controllo dettagliato. Nello specifico, FACTOR mira a controllare l'aspetto e il contesto degli oggetti, inclusa la loro posizione e categoria, in combinazione con il prompt testuale. Per ottenere un controllo dettagliato, proponiamo un framework unificato per iniettare congiuntamente segnali di controllo nel modello esistente di generazione di video da testo. Il nostro modello è composto da un encoder congiunto e strati di cross-attention adattivi. Ottimizzando l'encoder e lo strato inserito, adattiamo il modello per generare video allineati sia con i prompt testuali che con il controllo fine. Rispetto ai metodi esistenti che si basano su segnali di controllo densi come mappe di contorno, forniamo un'interfaccia più intuitiva e user-friendly per consentire un controllo fine a livello di oggetto. Il nostro metodo raggiunge la controllabilità dell'aspetto degli oggetti senza fine-tuning, riducendo gli sforzi di ottimizzazione per soggetto da parte degli utenti. Esperimenti estesi su dataset di benchmark standard e input forniti dagli utenti validano che il nostro modello ottiene un miglioramento del 70% nelle metriche di controllabilità rispetto alle baseline competitive.
English
Text-to-video generation has shown promising results. However, by taking only natural languages as input, users often face difficulties in providing detailed information to precisely control the model's output. In this work, we propose fine-grained controllable video generation (FACTOR) to achieve detailed control. Specifically, FACTOR aims to control objects' appearances and context, including their location and category, in conjunction with the text prompt. To achieve detailed control, we propose a unified framework to jointly inject control signals into the existing text-to-video model. Our model consists of a joint encoder and adaptive cross-attention layers. By optimizing the encoder and the inserted layer, we adapt the model to generate videos that are aligned with both text prompts and fine-grained control. Compared to existing methods relying on dense control signals such as edge maps, we provide a more intuitive and user-friendly interface to allow object-level fine-grained control. Our method achieves controllability of object appearances without finetuning, which reduces the per-subject optimization efforts for the users. Extensive experiments on standard benchmark datasets and user-provided inputs validate that our model obtains a 70% improvement in controllability metrics over competitive baselines.
PDF130December 15, 2024