ChatPaper.aiChatPaper

StealthAttack: Avvelenamento Robusto del 3D Gaussian Splatting tramite Illusioni Guidate dalla Densità

StealthAttack: Robust 3D Gaussian Splatting Poisoning via Density-Guided Illusions

October 2, 2025
Autori: Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, Wei-Chen Chiu
cs.AI

Abstract

I metodi di rappresentazione di scene 3D come i Neural Radiance Fields (NeRF) e il 3D Gaussian Splatting (3DGS) hanno significativamente avanzato la sintesi di nuove viste. Con il diffondersi di queste tecniche, diventa cruciale affrontarne le vulnerabilità. Analizziamo la robustezza del 3DGS contro attacchi di avvelenamento a livello di immagine e proponiamo un nuovo metodo di avvelenamento guidato dalla densità. Il nostro metodo inietta strategicamente punti gaussiani in regioni a bassa densità identificate tramite Kernel Density Estimation (KDE), incorporando oggetti illusori dipendenti dal punto di vista chiaramente visibili dalle viste avvelenate, mentre influenzano minimamente le viste innocenti. Inoltre, introduciamo una strategia di rumore adattivo per disturbare la consistenza multi-vista, migliorando ulteriormente l'efficacia dell'attacco. Proponiamo un protocollo di valutazione basato su KDE per valutare sistematicamente la difficoltà dell'attacco, consentendo un benchmarking oggettivo per la ricerca futura. Esperimenti estensivi dimostrano la prestazione superiore del nostro metodo rispetto alle tecniche più avanzate. Pagina del progetto: https://hentci.github.io/stealthattack/
English
3D scene representation methods like Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have significantly advanced novel view synthesis. As these methods become prevalent, addressing their vulnerabilities becomes critical. We analyze 3DGS robustness against image-level poisoning attacks and propose a novel density-guided poisoning method. Our method strategically injects Gaussian points into low-density regions identified via Kernel Density Estimation (KDE), embedding viewpoint-dependent illusory objects clearly visible from poisoned views while minimally affecting innocent views. Additionally, we introduce an adaptive noise strategy to disrupt multi-view consistency, further enhancing attack effectiveness. We propose a KDE-based evaluation protocol to assess attack difficulty systematically, enabling objective benchmarking for future research. Extensive experiments demonstrate our method's superior performance compared to state-of-the-art techniques. Project page: https://hentci.github.io/stealthattack/
PDF572October 3, 2025