Edição de Vídeo de Retrato Potencializada por Priors Generativos Multimodais
Portrait Video Editing Empowered by Multimodal Generative Priors
September 20, 2024
Autores: Xuan Gao, Haiyao Xiao, Chenglai Zhong, Shimin Hu, Yudong Guo, Juyong Zhang
cs.AI
Resumo
Apresentamos o PortraitGen, um poderoso método de edição de vídeo de retratos que alcança uma estilização consistente e expressiva com prompts multimodais. Métodos tradicionais de edição de vídeo de retratos frequentemente enfrentam dificuldades com a consistência 3D e temporal, e geralmente carecem de qualidade e eficiência de renderização. Para lidar com esses problemas, elevamos os quadros de vídeo de retratos para um campo gaussiano 3D dinâmico unificado, que garante coerência estrutural e temporal entre os quadros. Além disso, projetamos um mecanismo de Textura Gaussiana Neural inovador que não apenas permite edição de estilo sofisticada, mas também alcança uma velocidade de renderização acima de 100FPS. Nossa abordagem incorpora entradas multimodais por meio de conhecimento destilado de modelos generativos 2D em larga escala. Nosso sistema também incorpora orientação de similaridade de expressão e um módulo de edição de retratos consciente do rosto, mitigando efetivamente problemas de degradação associados a atualizações iterativas de conjuntos de dados. Experimentos extensos demonstram a consistência temporal, eficiência de edição e qualidade de renderização superior de nosso método. A ampla aplicabilidade da abordagem proposta é demonstrada por meio de várias aplicações, incluindo edição orientada por texto, edição orientada por imagem e relighting, destacando seu grande potencial para avançar no campo da edição de vídeo. Vídeos de demonstração e código disponibilizados em nossa página do projeto: https://ustc3dv.github.io/PortraitGen/
English
We introduce PortraitGen, a powerful portrait video editing method that
achieves consistent and expressive stylization with multimodal prompts.
Traditional portrait video editing methods often struggle with 3D and temporal
consistency, and typically lack in rendering quality and efficiency. To address
these issues, we lift the portrait video frames to a unified dynamic 3D
Gaussian field, which ensures structural and temporal coherence across frames.
Furthermore, we design a novel Neural Gaussian Texture mechanism that not only
enables sophisticated style editing but also achieves rendering speed over
100FPS. Our approach incorporates multimodal inputs through knowledge distilled
from large-scale 2D generative models. Our system also incorporates expression
similarity guidance and a face-aware portrait editing module, effectively
mitigating degradation issues associated with iterative dataset updates.
Extensive experiments demonstrate the temporal consistency, editing efficiency,
and superior rendering quality of our method. The broad applicability of the
proposed approach is demonstrated through various applications, including
text-driven editing, image-driven editing, and relighting, highlighting its
great potential to advance the field of video editing. Demo videos and released
code are provided in our project page: https://ustc3dv.github.io/PortraitGen/Summary
AI-Generated Summary