ChatPaper.aiChatPaper

ビデオ拡散事前情報を用いた新しい視点の推定

Novel View Extrapolation with Video Diffusion Priors

November 21, 2024
著者: Kunhao Liu, Ling Shao, Shijian Lu
cs.AI

要旨

小説的視点合成の分野は、放射輝度場手法の発展により、大きな進歩を遂げています。しかし、ほとんどの放射輝度場技術は、新しい視点の内挿よりも、観測されたトレーニング視点をはるかに超えた新しい視点の外挿において優れています。私たちは、Stable Video Diffusion(SVD)の生成事前知識を活用した実在的な新しい視点の外挿のためのViewExtrapolatorという新しい視点合成アプローチを設計しました。SVDのノイズ除去プロセスを再設計することで、ViewExtrapolatorは、放射輝度場によってレンダリングされたアーティファクトの多い視点を洗練し、合成された新しい視点の明瞭さとリアリズムを大幅に向上させます。ViewExtrapolatorは、単一の視点または単眼ビデオが利用可能な場合に、ポイントクラウドからレンダリングされた視点など、さまざまな種類の3Dレンダリングと連携できる汎用的な新しい視点の外挿器です。さらに、ViewExtrapolatorはSVDの微調整を必要とせず、データ効率と計算効率の両方が高いです。幅広い実験により、ViewExtrapolatorの新しい視点の外挿における優位性が証明されています。プロジェクトページ: https://kunhao-liu.github.io/ViewExtrapolator/。
English
The field of novel view synthesis has made significant strides thanks to the development of radiance field methods. However, most radiance field techniques are far better at novel view interpolation than novel view extrapolation where the synthesis novel views are far beyond the observed training views. We design ViewExtrapolator, a novel view synthesis approach that leverages the generative priors of Stable Video Diffusion (SVD) for realistic novel view extrapolation. By redesigning the SVD denoising process, ViewExtrapolator refines the artifact-prone views rendered by radiance fields, greatly enhancing the clarity and realism of the synthesized novel views. ViewExtrapolator is a generic novel view extrapolator that can work with different types of 3D rendering such as views rendered from point clouds when only a single view or monocular video is available. Additionally, ViewExtrapolator requires no fine-tuning of SVD, making it both data-efficient and computation-efficient. Extensive experiments demonstrate the superiority of ViewExtrapolator in novel view extrapolation. Project page: https://kunhao-liu.github.io/ViewExtrapolator/.
PDF103November 25, 2024