Síntese de Visão Monocular Nítida em Menos de Um Segundo
Sharp Monocular View Synthesis in Less Than a Second
December 11, 2025
Autores: Lars Mescheder, Wei Dong, Shiwei Li, Xuyang Bai, Marcel Santos, Peiyun Hu, Bruno Lecouat, Mingmin Zhen, Amaël Delaunoy, Tian Fang, Yanghai Tsin, Stephan R. Richter, Vladlen Koltun
cs.AI
Resumo
Apresentamos o SHARP, uma abordagem para síntese de visualizações fotorrealistas a partir de uma única imagem. Dada uma única fotografia, o SHARP regride os parâmetros de uma representação de Gaussianas 3D da cena retratada. Isso é feito em menos de um segundo em uma GPU padrão por meio de uma única passagem *feedforward* através de uma rede neural. A representação de Gaussianas 3D produzida pelo SHARP pode então ser renderizada em tempo real, gerando imagens fotorrealistas de alta resolução para visualizações próximas. A representação é métrica, com escala absoluta, suportando movimentos de câmera métricos. Resultados experimentais demonstram que o SHARP oferece generalização robusta *zero-shot* entre conjuntos de dados. Ele estabelece um novo estado da arte em múltiplos conjuntos de dados, reduzindo o LPIPS em 25-34% e o DISTS em 21-43% em comparação com o melhor modelo anterior, enquanto reduz o tempo de síntese em três ordens de magnitude. Código e pesos são fornecidos em https://github.com/apple/ml-sharp.
English
We present SHARP, an approach to photorealistic view synthesis from a single image. Given a single photograph, SHARP regresses the parameters of a 3D Gaussian representation of the depicted scene. This is done in less than a second on a standard GPU via a single feedforward pass through a neural network. The 3D Gaussian representation produced by SHARP can then be rendered in real time, yielding high-resolution photorealistic images for nearby views. The representation is metric, with absolute scale, supporting metric camera movements. Experimental results demonstrate that SHARP delivers robust zero-shot generalization across datasets. It sets a new state of the art on multiple datasets, reducing LPIPS by 25-34% and DISTS by 21-43% versus the best prior model, while lowering the synthesis time by three orders of magnitude. Code and weights are provided at https://github.com/apple/ml-sharp