ChatPaper.aiChatPaper

MatAnyone: Matting video stabile con propagazione coerente della memoria

MatAnyone: Stable Video Matting with Consistent Memory Propagation

January 24, 2025
Autori: Peiqing Yang, Shangchen Zhou, Jixin Zhao, Qingyi Tao, Chen Change Loy
cs.AI

Abstract

I metodi di video matting umano senza ausiliari, che si basano esclusivamente sui frame di input, spesso faticano con sfondi complessi o ambigui. Per affrontare questo problema, proponiamo MatAnyone, un robusto framework progettato per il video matting assegnato al target. In particolare, basandoci su un paradigma basato sulla memoria, introduciamo un modulo di propagazione della memoria coerente tramite fusione adattativa della memoria regionale, che integra in modo adattivo la memoria dal frame precedente. Questo garantisce stabilità semantica nelle regioni centrali preservando dettagli dettagliati lungo i confini degli oggetti. Per un addestramento robusto, presentiamo un dataset più ampio, di alta qualità e diversificato per il video matting. Inoltre, incorporiamo una nuova strategia di addestramento che sfrutta efficientemente dati di segmentazione su larga scala, potenziando la stabilità del matting. Con questo nuovo design di rete, dataset e strategia di addestramento, MatAnyone offre risultati robusti e precisi di video matting in diverse situazioni del mondo reale, superando i metodi esistenti.
English
Auxiliary-free human video matting methods, which rely solely on input frames, often struggle with complex or ambiguous backgrounds. To address this, we propose MatAnyone, a robust framework tailored for target-assigned video matting. Specifically, building on a memory-based paradigm, we introduce a consistent memory propagation module via region-adaptive memory fusion, which adaptively integrates memory from the previous frame. This ensures semantic stability in core regions while preserving fine-grained details along object boundaries. For robust training, we present a larger, high-quality, and diverse dataset for video matting. Additionally, we incorporate a novel training strategy that efficiently leverages large-scale segmentation data, boosting matting stability. With this new network design, dataset, and training strategy, MatAnyone delivers robust and accurate video matting results in diverse real-world scenarios, outperforming existing methods.
PDF353February 3, 2025