StealthAttack: Envenenamento Robusto de 3D Gaussian Splatting por meio de Ilusões Guiadas por Densidade
StealthAttack: Robust 3D Gaussian Splatting Poisoning via Density-Guided Illusions
October 2, 2025
Autores: Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, Wei-Chen Chiu
cs.AI
Resumo
Métodos de representação de cenas 3D, como Neural Radiance Fields (NeRF) e 3D Gaussian Splatting (3DGS), avançaram significativamente a síntese de novas perspectivas. À medida que esses métodos se tornam prevalentes, abordar suas vulnerabilidades torna-se crucial. Analisamos a robustez do 3DGS contra ataques de envenenamento em nível de imagem e propomos um novo método de envenenamento guiado por densidade. Nosso método injeta estrategicamente pontos Gaussianos em regiões de baixa densidade identificadas via Kernel Density Estimation (KDE), incorporando objetos ilusórios dependentes de perspectiva que são claramente visíveis a partir de visões envenenadas, enquanto afetam minimamente as visões inocentes. Além disso, introduzimos uma estratégia de ruído adaptativo para perturbar a consistência multi-visão, aumentando ainda mais a eficácia do ataque. Propomos um protocolo de avaliação baseado em KDE para avaliar sistematicamente a dificuldade do ataque, permitindo uma comparação objetiva para pesquisas futuras. Experimentos extensivos demonstram o desempenho superior do nosso método em comparação com técnicas state-of-the-art. Página do projeto: https://hentci.github.io/stealthattack/
English
3D scene representation methods like Neural Radiance Fields (NeRF) and 3D
Gaussian Splatting (3DGS) have significantly advanced novel view synthesis. As
these methods become prevalent, addressing their vulnerabilities becomes
critical. We analyze 3DGS robustness against image-level poisoning attacks and
propose a novel density-guided poisoning method. Our method strategically
injects Gaussian points into low-density regions identified via Kernel Density
Estimation (KDE), embedding viewpoint-dependent illusory objects clearly
visible from poisoned views while minimally affecting innocent views.
Additionally, we introduce an adaptive noise strategy to disrupt multi-view
consistency, further enhancing attack effectiveness. We propose a KDE-based
evaluation protocol to assess attack difficulty systematically, enabling
objective benchmarking for future research. Extensive experiments demonstrate
our method's superior performance compared to state-of-the-art techniques.
Project page: https://hentci.github.io/stealthattack/