OmnimatteRF: Robuust Omnimatte met 3D-achtergrondmodellering
OmnimatteRF: Robust Omnimatte with 3D Background Modeling
September 14, 2023
Auteurs: Geng Lin, Chen Gao, Jia-Bin Huang, Changil Kim, Yipeng Wang, Matthias Zwicker, Ayush Saraf
cs.AI
Samenvatting
Video matting heeft brede toepassingen, van het toevoegen van interessante effecten aan informeel vastgelegde films tot het assisteren van professionals in videoproductie. Matting met bijbehorende effecten zoals schaduwen en reflecties heeft ook steeds meer onderzoeksactiviteit aangetrokken, en methoden zoals Omnimatte zijn voorgesteld om dynamische voorgrondobjecten van interesse in hun eigen lagen te scheiden. Echter, eerdere werken representeren videobackgrounds als 2D-beeldlagen, wat hun vermogen beperkt om complexere scènes uit te drukken, en daardoor de toepassing op real-world video's belemmert. In dit artikel stellen we een nieuwe video matting-methode voor, OmnimatteRF, die dynamische 2D-voorgrondlagen combineert met een 3D-backgroundmodel. De 2D-lagen behouden de details van de onderwerpen, terwijl de 3D-background robuust scènes reconstrueert in real-world video's. Uitgebreide experimenten tonen aan dat onze methode scènes met betere kwaliteit reconstrueert op diverse video's.
English
Video matting has broad applications, from adding interesting effects to
casually captured movies to assisting video production professionals. Matting
with associated effects such as shadows and reflections has also attracted
increasing research activity, and methods like Omnimatte have been proposed to
separate dynamic foreground objects of interest into their own layers. However,
prior works represent video backgrounds as 2D image layers, limiting their
capacity to express more complicated scenes, thus hindering application to
real-world videos. In this paper, we propose a novel video matting method,
OmnimatteRF, that combines dynamic 2D foreground layers and a 3D background
model. The 2D layers preserve the details of the subjects, while the 3D
background robustly reconstructs scenes in real-world videos. Extensive
experiments demonstrate that our method reconstructs scenes with better quality
on various videos.