StealthAttack: Устойчивое отравление 3D-гауссовского сплайтинга с использованием иллюзий, управляемых плотностью
StealthAttack: Robust 3D Gaussian Splatting Poisoning via Density-Guided Illusions
October 2, 2025
Авторы: Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, Wei-Chen Chiu
cs.AI
Аннотация
Методы представления 3D-сцен, такие как Neural Radiance Fields (NeRF) и 3D Gaussian Splatting (3DGS), значительно продвинули синтез новых ракурсов. По мере распространения этих методов становится критически важным устранение их уязвимостей. Мы анализируем устойчивость 3DGS к атакам на уровне изображений и предлагаем новый метод отравления, основанный на плотности. Наш метод стратегически добавляет гауссовы точки в области с низкой плотностью, выявленные с помощью оценки плотности ядра (Kernel Density Estimation, KDE), внедряя иллюзорные объекты, зависящие от ракурса, которые четко видны из отравленных ракурсов, но минимально влияют на незатронутые виды. Кроме того, мы вводим адаптивную стратегию добавления шума для нарушения многовидовой согласованности, что дополнительно повышает эффективность атаки. Мы предлагаем протокол оценки на основе KDE для систематического анализа сложности атаки, что позволяет объективно сравнивать результаты для будущих исследований. Многочисленные эксперименты демонстрируют превосходство нашего метода по сравнению с современными технологиями. Страница проекта: https://hentci.github.io/stealthattack/
English
3D scene representation methods like Neural Radiance Fields (NeRF) and 3D
Gaussian Splatting (3DGS) have significantly advanced novel view synthesis. As
these methods become prevalent, addressing their vulnerabilities becomes
critical. We analyze 3DGS robustness against image-level poisoning attacks and
propose a novel density-guided poisoning method. Our method strategically
injects Gaussian points into low-density regions identified via Kernel Density
Estimation (KDE), embedding viewpoint-dependent illusory objects clearly
visible from poisoned views while minimally affecting innocent views.
Additionally, we introduce an adaptive noise strategy to disrupt multi-view
consistency, further enhancing attack effectiveness. We propose a KDE-based
evaluation protocol to assess attack difficulty systematically, enabling
objective benchmarking for future research. Extensive experiments demonstrate
our method's superior performance compared to state-of-the-art techniques.
Project page: https://hentci.github.io/stealthattack/