ChatPaper.aiChatPaper

Momentum-GS: Momentum Gaussian Self-Distillation voor hoogwaardige grootschalige scène reconstructie

Momentum-GS: Momentum Gaussian Self-Distillation for High-Quality Large Scene Reconstruction

December 6, 2024
Auteurs: Jixuan Fan, Wanhua Li, Yifei Han, Yansong Tang
cs.AI

Samenvatting

3D Gaussian Splatting heeft opmerkelijk succes aangetoond in grootschalige scène reconstructie, maar er blijven uitdagingen bestaan vanwege het hoge geheugengebruik tijdens training en de opslagoverhead. Hybride representaties die impliciete en expliciete kenmerken integreren, bieden een manier om deze beperkingen te verminderen. Echter, wanneer toegepast in parallelle bloksgewijze training, ontstaan twee kritieke problemen aangezien de reconstructie nauwkeurigheid verslechtert door verminderde gegevensdiversiteit bij het afzonderlijk trainen van elk blok, en parallelle training beperkt het aantal verdeelde blokken tot het beschikbare aantal GPU's. Om deze problemen aan te pakken, stellen wij Momentum-GS voor, een nieuw benadering die gebruikmaakt van op momentum gebaseerde zelf-distantiëring om consistentie en nauwkeurigheid over de blokken te bevorderen terwijl het aantal blokken losgekoppeld wordt van het fysieke aantal GPU's. Onze methode behoudt een leraar-Gaussische decoder die bijgewerkt wordt met momentum, wat zorgt voor een stabiele referentie tijdens training. Deze leraar biedt elk blok globale begeleiding op een zelf-distantiëringsmanier, wat ruimtelijke consistentie in reconstructie bevordert. Om verdere consistentie over de blokken te waarborgen, nemen we blokgewicht mee, waarbij elk blok dynamisch wordt aangepast op basis van zijn reconstructienauwkeurigheid. Uitgebreide experimenten op grootschalige scènes tonen aan dat onze methode consequent beter presteert dan bestaande technieken, met een verbetering van 12.8% in LPIPS ten opzichte van CityGaussian met veel minder verdeelde blokken en het vestigen van een nieuwe state of the art. Projectpagina: https://jixuan-fan.github.io/Momentum-GS_Page/
English
3D Gaussian Splatting has demonstrated notable success in large-scale scene reconstruction, but challenges persist due to high training memory consumption and storage overhead. Hybrid representations that integrate implicit and explicit features offer a way to mitigate these limitations. However, when applied in parallelized block-wise training, two critical issues arise since reconstruction accuracy deteriorates due to reduced data diversity when training each block independently, and parallel training restricts the number of divided blocks to the available number of GPUs. To address these issues, we propose Momentum-GS, a novel approach that leverages momentum-based self-distillation to promote consistency and accuracy across the blocks while decoupling the number of blocks from the physical GPU count. Our method maintains a teacher Gaussian decoder updated with momentum, ensuring a stable reference during training. This teacher provides each block with global guidance in a self-distillation manner, promoting spatial consistency in reconstruction. To further ensure consistency across the blocks, we incorporate block weighting, dynamically adjusting each block's weight according to its reconstruction accuracy. Extensive experiments on large-scale scenes show that our method consistently outperforms existing techniques, achieving a 12.8% improvement in LPIPS over CityGaussian with much fewer divided blocks and establishing a new state of the art. Project page: https://jixuan-fan.github.io/Momentum-GS_Page/
PDF173December 9, 2024