ChatPaper.aiChatPaper

Rendering Neurale Robusto in Ambienti Reali con Duale Asimmetrico a Splatting di Gaussiane 3D

Robust Neural Rendering in the Wild with Asymmetric Dual 3D Gaussian Splatting

June 4, 2025
Autori: Chengqi Li, Zhihao Shi, Yangdi Lu, Wenbo He, Xiangyu Xu
cs.AI

Abstract

La ricostruzione 3D da immagini in contesti non controllati rimane un compito impegnativo a causa delle condizioni di illuminazione incoerenti e dei distrattori transitori. I metodi esistenti si basano tipicamente su strategie euristiche per gestire i dati di addestramento di bassa qualità, che spesso faticano a produrre ricostruzioni stabili e coerenti, risultando frequentemente in artefatti visivi. In questo lavoro, proponiamo Asymmetric Dual 3DGS, un nuovo framework che sfrutta la natura stocastica di questi artefatti: essi tendono a variare tra diverse esecuzioni di addestramento a causa di piccole casualità. Nello specifico, il nostro metodo addestra due modelli di 3D Gaussian Splatting (3DGS) in parallelo, imponendo un vincolo di consistenza che favorisce la convergenza su una geometria della scena affidabile mentre sopprime gli artefatti incoerenti. Per evitare che i due modelli collassino in modalità di fallimento simili a causa del bias di conferma, introduciamo una strategia di mascheramento divergente che applica due maschere complementari: una maschera adattiva multi-segnale e una maschera soft auto-supervisionata, che porta a un processo di addestramento asimmetrico dei due modelli, riducendo le modalità di errore condivise. Inoltre, per migliorare l'efficienza dell'addestramento del modello, introduciamo una variante leggera chiamata Dynamic EMA Proxy, che sostituisce uno dei due modelli con un proxy aggiornato dinamicamente tramite Exponential Moving Average (EMA), e impiega una strategia di mascheramento alternata per preservare la divergenza. Esperimenti estesi su dataset reali complessi dimostrano che il nostro metodo supera costantemente gli approcci esistenti raggiungendo un'elevata efficienza. I codici e i modelli addestrati saranno rilasciati.
English
3D reconstruction from in-the-wild images remains a challenging task due to inconsistent lighting conditions and transient distractors. Existing methods typically rely on heuristic strategies to handle the low-quality training data, which often struggle to produce stable and consistent reconstructions, frequently resulting in visual artifacts. In this work, we propose Asymmetric Dual 3DGS, a novel framework that leverages the stochastic nature of these artifacts: they tend to vary across different training runs due to minor randomness. Specifically, our method trains two 3D Gaussian Splatting (3DGS) models in parallel, enforcing a consistency constraint that encourages convergence on reliable scene geometry while suppressing inconsistent artifacts. To prevent the two models from collapsing into similar failure modes due to confirmation bias, we introduce a divergent masking strategy that applies two complementary masks: a multi-cue adaptive mask and a self-supervised soft mask, which leads to an asymmetric training process of the two models, reducing shared error modes. In addition, to improve the efficiency of model training, we introduce a lightweight variant called Dynamic EMA Proxy, which replaces one of the two models with a dynamically updated Exponential Moving Average (EMA) proxy, and employs an alternating masking strategy to preserve divergence. Extensive experiments on challenging real-world datasets demonstrate that our method consistently outperforms existing approaches while achieving high efficiency. Codes and trained models will be released.
PDF22June 5, 2025