ChatPaper.aiChatPaper

OmnimatteZero: Trainingsvrije realtime Omnimatte met vooraf getrainde videodiffusiemodellen

OmnimatteZero: Training-free Real-time Omnimatte with Pre-trained Video Diffusion Models

March 23, 2025
Auteurs: Dvir Samuel, Matan Levy, Nir Darshan, Gal Chechik, Rami Ben-Ari
cs.AI

Samenvatting

Omnimatte heeft als doel een gegeven video te ontbinden in semantisch betekenisvolle lagen, inclusief de achtergrond en individuele objecten samen met hun bijbehorende effecten, zoals schaduwen en reflecties. Bestaande methoden vereisen vaak uitgebreide training of kostbare zelfgesuperviseerde optimalisatie. In dit artikel presenteren we OmnimatteZero, een trainingsvrije aanpak die gebruikmaakt van vooraf getrainde videodiffusiemodellen voor omnimatte. Het kan objecten uit video's verwijderen, individuele objectlagen samen met hun effecten extraheren en die objecten samenvoegen met nieuwe video's. We bereiken dit door zero-shot image inpainting-technieken aan te passen voor het verwijderen van objecten uit video's, een taak waar ze standaard niet effectief mee om kunnen gaan. Vervolgens laten we zien dat self-attention maps informatie vastleggen over het object en zijn voetafdrukken, en gebruiken we deze om de effecten van het object in te vullen, waardoor een schone achtergrond overblijft. Daarnaast kunnen objectlagen door eenvoudige latente rekenkunde worden geïsoleerd en naadloos worden gecombineerd met nieuwe videolagen om nieuwe video's te produceren. Evaluaties tonen aan dat OmnimatteZero niet alleen superieure prestaties levert op het gebied van achtergrondreconstructie, maar ook een nieuw record vestigt voor de snelste Omnimatte-aanpak, waarbij realtime prestaties worden bereikt met een minimale frametijd.
English
Omnimatte aims to decompose a given video into semantically meaningful layers, including the background and individual objects along with their associated effects, such as shadows and reflections. Existing methods often require extensive training or costly self-supervised optimization. In this paper, we present OmnimatteZero, a training-free approach that leverages off-the-shelf pre-trained video diffusion models for omnimatte. It can remove objects from videos, extract individual object layers along with their effects, and composite those objects onto new videos. We accomplish this by adapting zero-shot image inpainting techniques for video object removal, a task they fail to handle effectively out-of-the-box. We then show that self-attention maps capture information about the object and its footprints and use them to inpaint the object's effects, leaving a clean background. Additionally, through simple latent arithmetic, object layers can be isolated and recombined seamlessly with new video layers to produce new videos. Evaluations show that OmnimatteZero not only achieves superior performance in terms of background reconstruction but also sets a new record for the fastest Omnimatte approach, achieving real-time performance with minimal frame runtime.
PDF252March 25, 2025