Portretvideobewerking versterkt door multimodale generatieve prioriteiten
Portrait Video Editing Empowered by Multimodal Generative Priors
September 20, 2024
Auteurs: Xuan Gao, Haiyao Xiao, Chenglai Zhong, Shimin Hu, Yudong Guo, Juyong Zhang
cs.AI
Samenvatting
We introduceren PortraitGen, een krachtige methode voor het bewerken van portretvideo's die consistente en expressieve stijlvolle vormgeving bereikt met multimodale aanwijzingen. Traditionele methoden voor het bewerken van portretvideo's hebben vaak moeite met 3D- en temporele consistentie, en missen doorgaans in renderkwaliteit en efficiëntie. Om deze problemen aan te pakken, tillen we de frames van de portretvideo op naar een verenigd dynamisch 3D-Gaussisch veld, wat structurele en temporele coherentie over frames garandeert. Bovendien ontwerpen we een nieuw mechanisme genaamd Neurale Gaussische Textuur dat niet alleen geavanceerde stijlbewerking mogelijk maakt, maar ook een renderingsnelheid van meer dan 100FPS behaalt. Onze aanpak integreert multimodale invoer door kennis gedistilleerd uit grootschalige 2D-generatieve modellen. Ons systeem omvat ook begeleiding voor expressiesimilariteit en een module voor het bewerken van portretten die rekening houdt met gezichtsuitdrukkingen, waardoor de degradatieproblemen geassocieerd met iteratieve datasetupdates effectief worden verminderd. Uitgebreide experimenten tonen de temporele consistentie, bewerkings-efficiëntie en superieure renderkwaliteit van onze methode aan. De brede toepasbaarheid van de voorgestelde aanpak wordt gedemonstreerd door verschillende toepassingen, waaronder tekstgestuurde bewerking, beeldgestuurde bewerking en herbelichting, waarbij het grote potentieel wordt benadrukt om het vakgebied van videobewerking vooruit te helpen. Demonstratievideo's en vrijgegeven code zijn beschikbaar op onze projectpagina: https://ustc3dv.github.io/PortraitGen/
English
We introduce PortraitGen, a powerful portrait video editing method that
achieves consistent and expressive stylization with multimodal prompts.
Traditional portrait video editing methods often struggle with 3D and temporal
consistency, and typically lack in rendering quality and efficiency. To address
these issues, we lift the portrait video frames to a unified dynamic 3D
Gaussian field, which ensures structural and temporal coherence across frames.
Furthermore, we design a novel Neural Gaussian Texture mechanism that not only
enables sophisticated style editing but also achieves rendering speed over
100FPS. Our approach incorporates multimodal inputs through knowledge distilled
from large-scale 2D generative models. Our system also incorporates expression
similarity guidance and a face-aware portrait editing module, effectively
mitigating degradation issues associated with iterative dataset updates.
Extensive experiments demonstrate the temporal consistency, editing efficiency,
and superior rendering quality of our method. The broad applicability of the
proposed approach is demonstrated through various applications, including
text-driven editing, image-driven editing, and relighting, highlighting its
great potential to advance the field of video editing. Demo videos and released
code are provided in our project page: https://ustc3dv.github.io/PortraitGen/Summary
AI-Generated Summary