Редактирование портретных видео с использованием мультимодальных генеративных априорных моделей.
Portrait Video Editing Empowered by Multimodal Generative Priors
September 20, 2024
Авторы: Xuan Gao, Haiyao Xiao, Chenglai Zhong, Shimin Hu, Yudong Guo, Juyong Zhang
cs.AI
Аннотация
Мы представляем PortraitGen, мощный метод редактирования портретных видео, который обеспечивает последовательную и выразительную стилизацию с использованием мультимодальных подсказок. Традиционные методы редактирования портретных видео часто сталкиваются с проблемами 3D и временной согласованности, а также обычно уступают по качеству и эффективности визуализации. Для решения этих проблем мы преобразуем кадры портретных видео в единое динамическое 3D гауссово поле, которое обеспечивает структурную и временную согласованность между кадрами. Более того, мы разрабатываем новый механизм нейронной гауссовой текстуры, который не только позволяет осуществлять сложное редактирование стиля, но также обеспечивает скорость визуализации более 100 кадров в секунду. Наш подход включает мультимодальные входные данные, полученные из знаний, извлеченных из масштабных 2D генеративных моделей. Наша система также включает руководство по сходству выражений и модуль редактирования портретов, учитывающий лицо, что эффективно смягчает проблемы деградации, связанные с итеративными обновлениями набора данных. Обширные эксперименты демонстрируют временную согласованность, эффективность редактирования и превосходное качество визуализации нашего метода. Широкие возможности предложенного подхода демонстрируются через различные приложения, включая редактирование по тексту, редактирование по изображению и переосвещение, подчеркивая его большой потенциал для развития области видеоредактирования. Демонстрационные видео и выпущенный код предоставлены на нашей странице проекта: https://ustc3dv.github.io/PortraitGen/
English
We introduce PortraitGen, a powerful portrait video editing method that
achieves consistent and expressive stylization with multimodal prompts.
Traditional portrait video editing methods often struggle with 3D and temporal
consistency, and typically lack in rendering quality and efficiency. To address
these issues, we lift the portrait video frames to a unified dynamic 3D
Gaussian field, which ensures structural and temporal coherence across frames.
Furthermore, we design a novel Neural Gaussian Texture mechanism that not only
enables sophisticated style editing but also achieves rendering speed over
100FPS. Our approach incorporates multimodal inputs through knowledge distilled
from large-scale 2D generative models. Our system also incorporates expression
similarity guidance and a face-aware portrait editing module, effectively
mitigating degradation issues associated with iterative dataset updates.
Extensive experiments demonstrate the temporal consistency, editing efficiency,
and superior rendering quality of our method. The broad applicability of the
proposed approach is demonstrated through various applications, including
text-driven editing, image-driven editing, and relighting, highlighting its
great potential to advance the field of video editing. Demo videos and released
code are provided in our project page: https://ustc3dv.github.io/PortraitGen/Summary
AI-Generated Summary