SplAttN: Überbrückung von 2D und 3D durch Gaußsches Soft Splatting und Attention für die Punktwolkenvervollständigung
SplAttN: Bridging 2D and 3D with Gaussian Soft Splatting and Attention for Point Cloud Completion
May 2, 2026
Autoren: Zhaoyang Li, Zhichao You, Tianrui Li
cs.AI
Zusammenfassung
Obwohl multimodales Lernen die Punktwolkenvervollständigung vorangetrieben hat, bleiben die theoretischen Mechanismen unklar. Jüngste Arbeiten führen den Erfolg auf die Verbindung zwischen Modalitäten zurück, doch wir zeigen, dass die Standard-Hartprojektion diese Verbindung unterbricht: Die Projektion einer稀疏en Punktwolke auf die Bildebene erzeugt eine extrem稀疏e Trägermenge, die die Propagation visueller Priors behindert – ein Fehlermodus, den wir als Cross-Modal Entropy Collapse bezeichnen. Um diese praktische Einschränkung zu überwinden, schlagen wir SplAttN vor, das Hartprojektion durch Differentiable Gaussian Splatting ersetzt, um eine dichte, kontinuierliche Bilddarstellung zu erzeugen. Indem die Projektion als kontinuierliche Dichteschätzung reformuliert wird, vermeidet SplAttN kollabierte稀疏e Trägermengen, erleichtert den Gradientenfluss und verbessert die Erlernbarkeit cross-modaler Verbindungen. Umfangreiche Experimente zeigen, dass SplAttN state-of-the-art Ergebnisse auf PCN und ShapeNet-55/34 erzielt. Entscheidend ist, dass wir den realweltlichen KITTI-Benchmark als Stresstest für multimodale Abhängigkeit nutzen. Kontrafaktuelle Auswertungen zeigen, dass Baselines zu unimodalen Template-Retrievern degenerieren, die unempfindlich gegenüber visueller Entfernung sind, während SplAttN eine robuste Abhängigkeit von visuellen Hinweisen beibehält. Dies validiert, dass unsere Methode eine effektive cross-modale Verbindung etabliert. Code ist verfügbar unter https://github.com/zay002/SplAttN.
English
Although multi-modal learning has advanced point cloud completion, the theoretical mechanisms remain unclear. Recent works attribute success to the connection between modalities, yet we identify that standard hard projection severs this connection: projecting a sparse point cloud onto the image plane yields an extremely sparse support, which hinders visual prior propagation, a failure mode we term Cross-Modal Entropy Collapse. To address this practical limitation, we propose SplAttN, which replaces hard projection with Differentiable Gaussian Splatting to produce a dense, continuous image-plane representation. By reformulating projection as continuous density estimation, SplAttN avoids collapsed sparse support, facilitates gradient flow, and improves cross-modal connection learnability. Extensive experiments show that SplAttN achieves state-of-the-art performance on PCN and ShapeNet-55/34. Crucially, we utilize the real-world KITTI benchmark as a stress test for multi-modal reliance. Counter-factual evaluation reveals that while baselines degenerate into unimodal template retrievers insensitive to visual removal, SplAttN maintains a robust dependency on visual cues, validating that our method establishes an effective cross-modal connection. Code is available at https://github.com/zay002/SplAttN.