ChatPaper.aiChatPaper

InteractiveVideo : Génération de vidéos contrôlable centrée sur l'utilisateur avec des instructions multimodales synergiques

InteractiveVideo: User-Centric Controllable Video Generation with Synergistic Multimodal Instructions

February 5, 2024
Auteurs: Yiyuan Zhang, Yuhao Kang, Zhixin Zhang, Xiaohan Ding, Sanyuan Zhao, Xiangyu Yue
cs.AI

Résumé

Nous présentons InteractiveVideo, un cadre centré sur l'utilisateur pour la génération de vidéos. Contrairement aux approches génératives traditionnelles qui fonctionnent à partir d'images ou de textes fournis par l'utilisateur, notre cadre est conçu pour une interaction dynamique, permettant aux utilisateurs d'instruire le modèle génératif à travers divers mécanismes intuitifs tout au long du processus de génération, tels que des invites textuelles et visuelles, du dessin, du glisser-déposer, etc. Nous proposons un mécanisme d'Instruction Multimodale Synergétique, conçu pour intégrer de manière fluide les instructions multimodales des utilisateurs dans les modèles génératifs, facilitant ainsi une interaction coopérative et réactive entre les entrées utilisateur et le processus génératif. Cette approche permet un affinement itératif et granulaire du résultat de génération grâce à des instructions utilisateur précises et efficaces. Avec InteractiveVideo, les utilisateurs bénéficient de la flexibilité nécessaire pour ajuster méticuleusement les aspects clés d'une vidéo. Ils peuvent peindre l'image de référence, modifier la sémantique et ajuster les mouvements de la vidéo jusqu'à ce que leurs exigences soient pleinement satisfaites. Le code, les modèles et une démonstration sont disponibles à l'adresse suivante : https://github.com/invictus717/InteractiveVideo.
English
We introduce InteractiveVideo, a user-centric framework for video generation. Different from traditional generative approaches that operate based on user-provided images or text, our framework is designed for dynamic interaction, allowing users to instruct the generative model through various intuitive mechanisms during the whole generation process, e.g. text and image prompts, painting, drag-and-drop, etc. We propose a Synergistic Multimodal Instruction mechanism, designed to seamlessly integrate users' multimodal instructions into generative models, thus facilitating a cooperative and responsive interaction between user inputs and the generative process. This approach enables iterative and fine-grained refinement of the generation result through precise and effective user instructions. With InteractiveVideo, users are given the flexibility to meticulously tailor key aspects of a video. They can paint the reference image, edit semantics, and adjust video motions until their requirements are fully met. Code, models, and demo are available at https://github.com/invictus717/InteractiveVideo
PDF181December 15, 2024