Modifica video in modalità ritratto potenziata da precedenti generativi multimodali
Portrait Video Editing Empowered by Multimodal Generative Priors
September 20, 2024
Autori: Xuan Gao, Haiyao Xiao, Chenglai Zhong, Shimin Hu, Yudong Guo, Juyong Zhang
cs.AI
Abstract
Introduciamo PortraitGen, un potente metodo di editing video ritratto che raggiunge una stilizzazione coerente ed espressiva con prompt multimodali. I metodi tradizionali di editing video ritratto spesso faticano con la coerenza 3D e temporale, e tipicamente mancano di qualità e efficienza di rendering. Per affrontare questi problemi, eleviamo i frame video ritratto in un campo gaussiano dinamico 3D unificato, che garantisce coerenza strutturale e temporale tra i frame. Inoltre, progettiamo un nuovo meccanismo di Texture Gaussiana Neurale che non solo consente un editing di stile sofisticato ma raggiunge anche una velocità di rendering superiore a 100FPS. Il nostro approccio incorpora input multimodali attraverso conoscenze distillate da modelli generativi 2D su larga scala. Il nostro sistema incorpora anche una guida di similarità espressiva e un modulo di editing ritratto consapevole del viso, mitigando efficacemente i problemi di degrado associati agli aggiornamenti iterativi dell'insieme di dati. Estesi esperimenti dimostrano la coerenza temporale, l'efficienza di editing e la qualità di rendering superiore del nostro metodo. L'ampia applicabilità dell'approccio proposto è dimostrata attraverso varie applicazioni, inclusi editing basati su testo, editing basato su immagini e relighting, evidenziando il suo grande potenziale per far progredire il campo dell'editing video. Video dimostrativi e codice rilasciato sono disponibili nella nostra pagina del progetto: https://ustc3dv.github.io/PortraitGen/
English
We introduce PortraitGen, a powerful portrait video editing method that
achieves consistent and expressive stylization with multimodal prompts.
Traditional portrait video editing methods often struggle with 3D and temporal
consistency, and typically lack in rendering quality and efficiency. To address
these issues, we lift the portrait video frames to a unified dynamic 3D
Gaussian field, which ensures structural and temporal coherence across frames.
Furthermore, we design a novel Neural Gaussian Texture mechanism that not only
enables sophisticated style editing but also achieves rendering speed over
100FPS. Our approach incorporates multimodal inputs through knowledge distilled
from large-scale 2D generative models. Our system also incorporates expression
similarity guidance and a face-aware portrait editing module, effectively
mitigating degradation issues associated with iterative dataset updates.
Extensive experiments demonstrate the temporal consistency, editing efficiency,
and superior rendering quality of our method. The broad applicability of the
proposed approach is demonstrated through various applications, including
text-driven editing, image-driven editing, and relighting, highlighting its
great potential to advance the field of video editing. Demo videos and released
code are provided in our project page: https://ustc3dv.github.io/PortraitGen/Summary
AI-Generated Summary