OmnimatteRF: Robustes Omnimatte mit 3D-Hintergrundmodellierung
OmnimatteRF: Robust Omnimatte with 3D Background Modeling
September 14, 2023
Autoren: Geng Lin, Chen Gao, Jia-Bin Huang, Changil Kim, Yipeng Wang, Matthias Zwicker, Ayush Saraf
cs.AI
Zusammenfassung
Video-Matting hat vielfältige Anwendungen, von der Hinzufügung interessanter Effekte zu beiläufig aufgenommenen Filmen bis hin zur Unterstützung von Fachleuten in der Videoproduktion. Matting mit damit verbundenen Effekten wie Schatten und Reflexionen hat ebenfalls zunehmend Forschungsaktivitäten angezogen, und Methoden wie Omnimatte wurden vorgeschlagen, um dynamische Vordergrundobjekte von Interesse in ihre eigenen Ebenen zu trennen. Bisherige Arbeiten stellen jedoch Videohintergründe als 2D-Bildebenen dar, was ihre Fähigkeit einschränkt, komplexere Szenen auszudrücken, und somit die Anwendung auf reale Videos behindert. In diesem Artikel schlagen wir eine neuartige Video-Matting-Methode vor, OmnimatteRF, die dynamische 2D-Vordergrundebenen und ein 3D-Hintergrundmodell kombiniert. Die 2D-Ebenen bewahren die Details der Subjekte, während der 3D-Hintergrund Szenen in realen Videos robust rekonstruiert. Umfangreiche Experimente zeigen, dass unsere Methode Szenen in verschiedenen Videos mit besserer Qualität rekonstruiert.
English
Video matting has broad applications, from adding interesting effects to
casually captured movies to assisting video production professionals. Matting
with associated effects such as shadows and reflections has also attracted
increasing research activity, and methods like Omnimatte have been proposed to
separate dynamic foreground objects of interest into their own layers. However,
prior works represent video backgrounds as 2D image layers, limiting their
capacity to express more complicated scenes, thus hindering application to
real-world videos. In this paper, we propose a novel video matting method,
OmnimatteRF, that combines dynamic 2D foreground layers and a 3D background
model. The 2D layers preserve the details of the subjects, while the 3D
background robustly reconstructs scenes in real-world videos. Extensive
experiments demonstrate that our method reconstructs scenes with better quality
on various videos.