OmnimatteRF: Omnimatte Robusto con Modellazione 3D dello Sfondo
OmnimatteRF: Robust Omnimatte with 3D Background Modeling
September 14, 2023
Autori: Geng Lin, Chen Gao, Jia-Bin Huang, Changil Kim, Yipeng Wang, Matthias Zwicker, Ayush Saraf
cs.AI
Abstract
Il video matting ha ampie applicazioni, dall'aggiunta di effetti interessanti a filmati catturati casualmente all'assistenza di professionisti della produzione video. Il matting con effetti associati come ombre e riflessi ha anche attirato un crescente interesse nella ricerca, e metodi come Omnimatte sono stati proposti per separare gli oggetti dinamici in primo piano di interesse nei loro strati separati. Tuttavia, i lavori precedenti rappresentano gli sfondi video come strati di immagini 2D, limitando la loro capacità di esprimere scene più complesse, ostacolando così l'applicazione a video del mondo reale. In questo articolo, proponiamo un nuovo metodo di video matting, OmnimatteRF, che combina strati dinamici 2D in primo piano e un modello di sfondo 3D. Gli strati 2D preservano i dettagli dei soggetti, mentre lo sfondo 3D ricostruisce in modo robusto le scene nei video del mondo reale. Esperimenti estensivi dimostrano che il nostro metodo ricostruisce scene con una qualità migliore su vari video.
English
Video matting has broad applications, from adding interesting effects to
casually captured movies to assisting video production professionals. Matting
with associated effects such as shadows and reflections has also attracted
increasing research activity, and methods like Omnimatte have been proposed to
separate dynamic foreground objects of interest into their own layers. However,
prior works represent video backgrounds as 2D image layers, limiting their
capacity to express more complicated scenes, thus hindering application to
real-world videos. In this paper, we propose a novel video matting method,
OmnimatteRF, that combines dynamic 2D foreground layers and a 3D background
model. The 2D layers preserve the details of the subjects, while the 3D
background robustly reconstructs scenes in real-world videos. Extensive
experiments demonstrate that our method reconstructs scenes with better quality
on various videos.