ChatPaper.aiChatPaper

Momentum-GS: Momento de Autodestilación Gaussiano para la Reconstrucción de Escenas Grandes de Alta Calidad

Momentum-GS: Momentum Gaussian Self-Distillation for High-Quality Large Scene Reconstruction

December 6, 2024
Autores: Jixuan Fan, Wanhua Li, Yifei Han, Yansong Tang
cs.AI

Resumen

El Splatting Gaussiano en 3D ha demostrado un notable éxito en la reconstrucción de escenas a gran escala, pero persisten desafíos debido al alto consumo de memoria durante el entrenamiento y la sobrecarga de almacenamiento. Las representaciones híbridas que integran características implícitas y explícitas ofrecen una forma de mitigar estas limitaciones. Sin embargo, al aplicarse en un entrenamiento paralelizado por bloques, surgen dos problemas críticos, ya que la precisión de la reconstrucción se deteriora debido a la reducida diversidad de datos al entrenar cada bloque de forma independiente, y el entrenamiento paralelo restringe la cantidad de bloques divididos al número disponible de GPUs. Para abordar estos problemas, proponemos Momentum-GS, un enfoque novedoso que aprovecha la auto-difusión basada en momentum para promover la consistencia y precisión en todos los bloques al tiempo que desacopla el número de bloques de la cantidad física de GPUs. Nuestro método mantiene un decodificador Gaussiano maestro actualizado con momentum, asegurando una referencia estable durante el entrenamiento. Este maestro proporciona a cada bloque una guía global de manera auto-difundida, promoviendo la consistencia espacial en la reconstrucción. Para garantizar aún más la consistencia entre los bloques, incorporamos ponderación de bloques, ajustando dinámicamente el peso de cada bloque según su precisión de reconstrucción. Experimentos extensos en escenas a gran escala muestran que nuestro método supera consistentemente a las técnicas existentes, logrando una mejora del 12.8% en LPIPS sobre CityGaussian con muchos menos bloques divididos y estableciendo un nuevo estado del arte. Página del proyecto: https://jixuan-fan.github.io/Momentum-GS_Page/
English
3D Gaussian Splatting has demonstrated notable success in large-scale scene reconstruction, but challenges persist due to high training memory consumption and storage overhead. Hybrid representations that integrate implicit and explicit features offer a way to mitigate these limitations. However, when applied in parallelized block-wise training, two critical issues arise since reconstruction accuracy deteriorates due to reduced data diversity when training each block independently, and parallel training restricts the number of divided blocks to the available number of GPUs. To address these issues, we propose Momentum-GS, a novel approach that leverages momentum-based self-distillation to promote consistency and accuracy across the blocks while decoupling the number of blocks from the physical GPU count. Our method maintains a teacher Gaussian decoder updated with momentum, ensuring a stable reference during training. This teacher provides each block with global guidance in a self-distillation manner, promoting spatial consistency in reconstruction. To further ensure consistency across the blocks, we incorporate block weighting, dynamically adjusting each block's weight according to its reconstruction accuracy. Extensive experiments on large-scale scenes show that our method consistently outperforms existing techniques, achieving a 12.8% improvement in LPIPS over CityGaussian with much fewer divided blocks and establishing a new state of the art. Project page: https://jixuan-fan.github.io/Momentum-GS_Page/

Summary

AI-Generated Summary

PDF173December 9, 2024