ChatPaper.aiChatPaper

AnySplat: Splatting di Gaussiane 3D in modalità feed-forward da viste non vincolate

AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views

May 29, 2025
Autori: Lihan Jiang, Yucheng Mao, Linning Xu, Tao Lu, Kerui Ren, Yichen Jin, Xudong Xu, Mulin Yu, Jiangmiao Pang, Feng Zhao, Dahua Lin, Bo Dai
cs.AI

Abstract

Presentiamo AnySplat, una rete feed-forward per la sintesi di nuove viste da collezioni di immagini non calibrate. A differenza delle tradizionali pipeline di rendering neurale che richiedono pose della camera note e ottimizzazione per ogni scena, o dei recenti metodi feed-forward che cedono sotto il peso computazionale di viste dense, il nostro modello predice tutto in un solo passaggio. Un singolo passaggio in avanti produce un insieme di primitive gaussiane 3D che codificano sia la geometria che l'aspetto della scena, insieme ai parametri intrinseci ed estrinseci della camera per ogni immagine in ingresso. Questo design unificato si adatta senza sforzo a dataset multi-vista acquisiti casualmente, senza alcuna annotazione delle pose. In valutazioni zero-shot estese, AnySplat eguaglia la qualità dei baseline con pose note sia in scenari con viste sparse che dense, superando gli approcci esistenti privi di pose. Inoltre, riduce significativamente la latenza di rendering rispetto ai campi neurali basati su ottimizzazione, avvicinando la sintesi di nuove viste in tempo reale a contesti di acquisizione non vincolati. Pagina del progetto: https://city-super.github.io/anysplat/
English
We introduce AnySplat, a feed forward network for novel view synthesis from uncalibrated image collections. In contrast to traditional neural rendering pipelines that demand known camera poses and per scene optimization, or recent feed forward methods that buckle under the computational weight of dense views, our model predicts everything in one shot. A single forward pass yields a set of 3D Gaussian primitives encoding both scene geometry and appearance, and the corresponding camera intrinsics and extrinsics for each input image. This unified design scales effortlessly to casually captured, multi view datasets without any pose annotations. In extensive zero shot evaluations, AnySplat matches the quality of pose aware baselines in both sparse and dense view scenarios while surpassing existing pose free approaches. Moreover, it greatly reduce rendering latency compared to optimization based neural fields, bringing real time novel view synthesis within reach for unconstrained capture settings.Project page: https://city-super.github.io/anysplat/
PDF312May 30, 2025