ChatPaper.aiChatPaper

Boximator: Generazione di Movimenti Ricchi e Controllabili per la Sintesi Video

Boximator: Generating Rich and Controllable Motions for Video Synthesis

February 2, 2024
Autori: Jiawei Wang, Yuchen Zhang, Jiaxin Zou, Yan Zeng, Guoqiang Wei, Liping Yuan, Hang Li
cs.AI

Abstract

Generare movimenti ricchi e controllabili rappresenta una sfida cruciale nella sintesi video. Proponiamo Boximator, un nuovo approccio per il controllo fine del movimento. Boximator introduce due tipi di vincoli: hard box e soft box. Gli utenti selezionano gli oggetti nel frame condizionale utilizzando hard box e poi impiegano uno dei due tipi di box per definire approssimativamente o rigorosamente la posizione, la forma o il percorso di movimento dell'oggetto nei frame futuri. Boximator funziona come un plug-in per i modelli di diffusione video esistenti. Il suo processo di addestramento preserva la conoscenza del modello di base congelando i pesi originali e addestrando solo il modulo di controllo. Per affrontare le sfide dell'addestramento, introduciamo una nuova tecnica di self-tracking che semplifica notevolmente l'apprendimento delle correlazioni box-oggetto. Empiricamente, Boximator raggiunge punteggi di qualità video (FVD) all'avanguardia, migliorando due modelli di base, con ulteriori miglioramenti dopo l'incorporazione dei vincoli box. La sua robusta controllabilità del movimento è validata da un drastico aumento nella metrica di allineamento del bounding box. La valutazione umana mostra inoltre che gli utenti preferiscono i risultati generati da Boximator rispetto al modello di base.
English
Generating rich and controllable motion is a pivotal challenge in video synthesis. We propose Boximator, a new approach for fine-grained motion control. Boximator introduces two constraint types: hard box and soft box. Users select objects in the conditional frame using hard boxes and then use either type of boxes to roughly or rigorously define the object's position, shape, or motion path in future frames. Boximator functions as a plug-in for existing video diffusion models. Its training process preserves the base model's knowledge by freezing the original weights and training only the control module. To address training challenges, we introduce a novel self-tracking technique that greatly simplifies the learning of box-object correlations. Empirically, Boximator achieves state-of-the-art video quality (FVD) scores, improving on two base models, and further enhanced after incorporating box constraints. Its robust motion controllability is validated by drastic increases in the bounding box alignment metric. Human evaluation also shows that users favor Boximator generation results over the base model.
PDF274December 15, 2024