ChatPaper.aiChatPaper

Génération de vidéo à contrôle fin via l'apparence des objets et le contexte

Fine-grained Controllable Video Generation via Object Appearance and Context

December 5, 2023
Auteurs: Hsin-Ping Huang, Yu-Chuan Su, Deqing Sun, Lu Jiang, Xuhui Jia, Yukun Zhu, Ming-Hsuan Yang
cs.AI

Résumé

La génération de texte-à-vidéo a montré des résultats prometteurs. Cependant, en ne prenant que des langues naturelles comme entrée, les utilisateurs rencontrent souvent des difficultés à fournir des informations détaillées pour contrôler précisément la sortie du modèle. Dans ce travail, nous proposons la génération de vidéo contrôlable à granularité fine (FACTOR) pour atteindre un contrôle détaillé. Plus précisément, FACTOR vise à contrôler l'apparence et le contexte des objets, y compris leur localisation et leur catégorie, en conjonction avec l'invite textuelle. Pour parvenir à un contrôle détaillé, nous proposons un cadre unifié pour injecter conjointement des signaux de contrôle dans le modèle existant de texte-à-vidéo. Notre modèle se compose d'un encodeur conjoint et de couches d'attention croisée adaptatives. En optimisant l'encodeur et la couche insérée, nous adaptons le modèle pour générer des vidéos alignées à la fois avec les invites textuelles et le contrôle à granularité fine. Par rapport aux méthodes existantes reposant sur des signaux de contrôle denses tels que les cartes de contours, nous fournissons une interface plus intuitive et conviviale permettant un contrôle fin au niveau des objets. Notre méthode atteint la contrôlabilité des apparences d'objets sans ajustement fin, ce qui réduit les efforts d'optimisation par sujet pour les utilisateurs. Des expériences approfondies sur des ensembles de données de référence standard et des entrées fournies par les utilisateurs valident que notre modèle obtient une amélioration de 70 % dans les métriques de contrôlabilité par rapport aux bases de référence concurrentes.
English
Text-to-video generation has shown promising results. However, by taking only natural languages as input, users often face difficulties in providing detailed information to precisely control the model's output. In this work, we propose fine-grained controllable video generation (FACTOR) to achieve detailed control. Specifically, FACTOR aims to control objects' appearances and context, including their location and category, in conjunction with the text prompt. To achieve detailed control, we propose a unified framework to jointly inject control signals into the existing text-to-video model. Our model consists of a joint encoder and adaptive cross-attention layers. By optimizing the encoder and the inserted layer, we adapt the model to generate videos that are aligned with both text prompts and fine-grained control. Compared to existing methods relying on dense control signals such as edge maps, we provide a more intuitive and user-friendly interface to allow object-level fine-grained control. Our method achieves controllability of object appearances without finetuning, which reduces the per-subject optimization efforts for the users. Extensive experiments on standard benchmark datasets and user-provided inputs validate that our model obtains a 70% improvement in controllability metrics over competitive baselines.
PDF130December 15, 2024