SplAttN: Соединяя 2D и 3D с помощью гауссовского мягкого сплаттинга и внимания для восстановления облаков точек
SplAttN: Bridging 2D and 3D with Gaussian Soft Splatting and Attention for Point Cloud Completion
May 2, 2026
Авторы: Zhaoyang Li, Zhichao You, Tianrui Li
cs.AI
Аннотация
Хотя многомодальное обучение продвинуло задачу дополнения облаков точек, теоретические механизмы остаются неясными. Недавние работы объясняют успех связью между модальностями, однако мы выявили, что стандартная жёсткая проекция разрывает эту связь: проецирование разреженного облака точек на плоскость изображения даёт чрезвычайно разреженный носитель, что препятствует распространению визуальных priors — режим сбоя, который мы называем Коллапсом Кросс-Модальной Энтропии. Для преодоления этого практического ограничения мы предлагаем SplAttN, который заменяет жёсткую проекцию на Дифференцируемое Гауссово Размывание для получения плотного, непрерывного представления в плоскости изображения. Переформулируя проекцию как задачу непрерывной оценки плотности, SplAttN избегает коллапсированного разреженного носителя, облегчает поток градиентов и улучшает обучаемость кросс-модальных связей. Многочисленные эксперименты показывают, что SplAttN достигает наилучших результатов на PCN и ShapeNet-55/34. Ключевым моментом является использование реалистичного бенчмарка KITTI в качестве стресс-теста для оценки зависимости от многомодальности. Контрфактическая оценка показывает, что в то время как базовые методы вырождаются в унимодальные поисковые системы шаблонов, нечувствительные к удалению визуальной информации, SplAttN сохраняет устойчивую зависимость от визуальных сигналов, что подтверждает установление нашей методом эффективной кросс-модальной связи. Код доступен по адресу https://github.com/zay002/SplAttN.
English
Although multi-modal learning has advanced point cloud completion, the theoretical mechanisms remain unclear. Recent works attribute success to the connection between modalities, yet we identify that standard hard projection severs this connection: projecting a sparse point cloud onto the image plane yields an extremely sparse support, which hinders visual prior propagation, a failure mode we term Cross-Modal Entropy Collapse. To address this practical limitation, we propose SplAttN, which replaces hard projection with Differentiable Gaussian Splatting to produce a dense, continuous image-plane representation. By reformulating projection as continuous density estimation, SplAttN avoids collapsed sparse support, facilitates gradient flow, and improves cross-modal connection learnability. Extensive experiments show that SplAttN achieves state-of-the-art performance on PCN and ShapeNet-55/34. Crucially, we utilize the real-world KITTI benchmark as a stress test for multi-modal reliance. Counter-factual evaluation reveals that while baselines degenerate into unimodal template retrievers insensitive to visual removal, SplAttN maintains a robust dependency on visual cues, validating that our method establishes an effective cross-modal connection. Code is available at https://github.com/zay002/SplAttN.