OmnimatteRF: Omnimatte Robusto com Modelagem de Fundo 3D
OmnimatteRF: Robust Omnimatte with 3D Background Modeling
September 14, 2023
Autores: Geng Lin, Chen Gao, Jia-Bin Huang, Changil Kim, Yipeng Wang, Matthias Zwicker, Ayush Saraf
cs.AI
Resumo
A matização de vídeo tem amplas aplicações, desde a adição de efeitos interessantes a filmagens casuais até o auxílio a profissionais de produção de vídeo. A matização com efeitos associados, como sombras e reflexos, também tem atraído crescente atividade de pesquisa, e métodos como o Omnimatte foram propostos para separar objetos dinâmicos de interesse em primeiro plano em suas próprias camadas. No entanto, trabalhos anteriores representam os fundos de vídeo como camadas de imagem 2D, limitando sua capacidade de expressar cenas mais complexas, dificultando assim a aplicação em vídeos do mundo real. Neste artigo, propomos um novo método de matização de vídeo, o OmnimatteRF, que combina camadas dinâmicas 2D em primeiro plano e um modelo de fundo 3D. As camadas 2D preservam os detalhes dos objetos, enquanto o fundo 3D reconstrói robustamente cenas em vídeos do mundo real. Experimentos extensivos demonstram que nosso método reconstrói cenas com melhor qualidade em diversos vídeos.
English
Video matting has broad applications, from adding interesting effects to
casually captured movies to assisting video production professionals. Matting
with associated effects such as shadows and reflections has also attracted
increasing research activity, and methods like Omnimatte have been proposed to
separate dynamic foreground objects of interest into their own layers. However,
prior works represent video backgrounds as 2D image layers, limiting their
capacity to express more complicated scenes, thus hindering application to
real-world videos. In this paper, we propose a novel video matting method,
OmnimatteRF, that combines dynamic 2D foreground layers and a 3D background
model. The 2D layers preserve the details of the subjects, while the 3D
background robustly reconstructs scenes in real-world videos. Extensive
experiments demonstrate that our method reconstructs scenes with better quality
on various videos.