SplAttN : Relier le 2D et le 3D par l'Éclaboussure Gaussienne Douce et l'Attention pour la Complétion de Nuages de Points
SplAttN: Bridging 2D and 3D with Gaussian Soft Splatting and Attention for Point Cloud Completion
May 2, 2026
Auteurs: Zhaoyang Li, Zhichao You, Tianrui Li
cs.AI
Résumé
Bien que l'apprentissage multimodal ait fait progresser la complétion de nuages de points, les mécanismes théoriques sous-jacents demeurent obscurs. Des travaux récents attribuent le succès à la connexion entre les modalités, mais nous identifions que la projection standard brise cette connexion : la projection d'un nuage de points éparse sur le plan image produit un support extrêmement discontinu, ce qui entrave la propagation des prérequis visuels, un échec que nous nommons Effondrement d'Entropie Cross-Modale. Pour résoudre cette limitation pratique, nous proposons SplAttN, qui remplace la projection discrète par du Gaussian Splatting Différentiable pour produire une représentation dense et continue dans le plan image. En reformulant la projection comme un problème d'estimation de densité continue, SplAttN évite l'effondrement du support, facilite le flux de gradient et améliore l'apprentissage de la connexion multimodale. Des expériences approfondies montrent que SplAttN obtient des performances de pointe sur PCN et ShapeNet-55/34. Surtout, nous utilisons le benchmark réaliste KITTI comme test de stress pour la dépendance multimodale. Une évaluation contrefactuelle révèle que si les méthodes de référence dégénèrent en systèmes de récupération de modèles unimodaux insensibles à la suppression visuelle, SplAttN maintient une dépendance robuste aux indices visuels, validant que notre méthode établit une connexion multimodale efficace. Le code est disponible à l'adresse https://github.com/zay002/SplAttN.
English
Although multi-modal learning has advanced point cloud completion, the theoretical mechanisms remain unclear. Recent works attribute success to the connection between modalities, yet we identify that standard hard projection severs this connection: projecting a sparse point cloud onto the image plane yields an extremely sparse support, which hinders visual prior propagation, a failure mode we term Cross-Modal Entropy Collapse. To address this practical limitation, we propose SplAttN, which replaces hard projection with Differentiable Gaussian Splatting to produce a dense, continuous image-plane representation. By reformulating projection as continuous density estimation, SplAttN avoids collapsed sparse support, facilitates gradient flow, and improves cross-modal connection learnability. Extensive experiments show that SplAttN achieves state-of-the-art performance on PCN and ShapeNet-55/34. Crucially, we utilize the real-world KITTI benchmark as a stress test for multi-modal reliance. Counter-factual evaluation reveals that while baselines degenerate into unimodal template retrievers insensitive to visual removal, SplAttN maintains a robust dependency on visual cues, validating that our method establishes an effective cross-modal connection. Code is available at https://github.com/zay002/SplAttN.