StealthAttack: Envenenamiento Robusto de 3D Gaussian Splatting mediante Ilusiones Guiadas por Densidad
StealthAttack: Robust 3D Gaussian Splatting Poisoning via Density-Guided Illusions
October 2, 2025
Autores: Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, Wei-Chen Chiu
cs.AI
Resumen
Los métodos de representación de escenas 3D como Neural Radiance Fields (NeRF) y 3D Gaussian Splatting (3DGS) han avanzado significativamente en la síntesis de nuevas vistas. A medida que estos métodos se vuelven prevalentes, abordar sus vulnerabilidades se vuelve crucial. Analizamos la robustez de 3DGS frente a ataques de envenenamiento a nivel de imagen y proponemos un novedoso método de envenenamiento guiado por densidad. Nuestro método inyecta estratégicamente puntos gaussianos en regiones de baja densidad identificadas mediante Kernel Density Estimation (KDE), incrustando objetos ilusorios dependientes del punto de vista que son claramente visibles desde las vistas envenenadas, mientras afectan mínimamente las vistas inocentes. Además, introducimos una estrategia de ruido adaptativo para perturbar la consistencia multi-vista, mejorando aún más la efectividad del ataque. Proponemos un protocolo de evaluación basado en KDE para evaluar sistemáticamente la dificultad del ataque, permitiendo un benchmarking objetivo para futuras investigaciones. Experimentos extensivos demuestran el rendimiento superior de nuestro método en comparación con las técnicas más avanzadas. Página del proyecto: https://hentci.github.io/stealthattack/
English
3D scene representation methods like Neural Radiance Fields (NeRF) and 3D
Gaussian Splatting (3DGS) have significantly advanced novel view synthesis. As
these methods become prevalent, addressing their vulnerabilities becomes
critical. We analyze 3DGS robustness against image-level poisoning attacks and
propose a novel density-guided poisoning method. Our method strategically
injects Gaussian points into low-density regions identified via Kernel Density
Estimation (KDE), embedding viewpoint-dependent illusory objects clearly
visible from poisoned views while minimally affecting innocent views.
Additionally, we introduce an adaptive noise strategy to disrupt multi-view
consistency, further enhancing attack effectiveness. We propose a KDE-based
evaluation protocol to assess attack difficulty systematically, enabling
objective benchmarking for future research. Extensive experiments demonstrate
our method's superior performance compared to state-of-the-art techniques.
Project page: https://hentci.github.io/stealthattack/