ChatPaper.aiChatPaper

Binaire Opaciteitsroosters: Het Vastleggen van Fijne Geometrische Details voor Mesh-Gebaseerde Beeldsynthese

Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based View Synthesis

February 19, 2024
Auteurs: Christian Reiser, Stephan Garbin, Pratul P. Srinivasan, Dor Verbin, Richard Szeliski, Ben Mildenhall, Jonathan T. Barron, Peter Hedman, Andreas Geiger
cs.AI

Samenvatting

Hoewel oppervlaktegebaseerde algoritmen voor viewsynthese aantrekkelijk zijn vanwege hun lage computationale eisen, hebben ze vaak moeite met het reproduceren van dunne structuren. Daarentegen excelleren duurdere methoden die de geometrie van de scène modelleren als een volumetrisch dichtheidsveld (bijv. NeRF) in het reconstrueren van fijne geometrische details. Dichtheidsvelden representeren geometrie echter vaak op een "wazige" manier, wat een exacte lokalisatie van het oppervlak belemmert. In dit werk passen we dichtheidsvelden aan om ze te stimuleren naar oppervlakken te convergeren, zonder hun vermogen om dunne structuren te reconstrueren in te perken. Ten eerste gebruiken we een discrete opacity grid-representatie in plaats van een continu dichtheidsveld, waardoor opacity-waarden discontinu kunnen overgaan van nul naar één bij het oppervlak. Ten tweede anti-aliassen we door meerdere stralen per pixel te casten, wat het modelleren van occlusiegrenzen en subpixelstructuren mogelijk maakt zonder semi-transparante voxels te gebruiken. Ten derde minimaliseren we de binaire entropie van de opacity-waarden, wat de extractie van oppervlaktegeometrie vergemakkelijkt door opacity-waarden te stimuleren om te binariseren tegen het einde van de training. Tot slot ontwikkelen we een fusiegebaseerde meshing-strategie gevolgd door mesh-simplificatie en aanpassing van het uiterlijkmodel. De compacte meshes die door ons model worden geproduceerd, kunnen in real-time worden gerenderd op mobiele apparaten en bereiken een aanzienlijk hogere kwaliteit van viewsynthese vergeleken met bestaande mesh-gebaseerde benaderingen.
English
While surface-based view synthesis algorithms are appealing due to their low computational requirements, they often struggle to reproduce thin structures. In contrast, more expensive methods that model the scene's geometry as a volumetric density field (e.g. NeRF) excel at reconstructing fine geometric detail. However, density fields often represent geometry in a "fuzzy" manner, which hinders exact localization of the surface. In this work, we modify density fields to encourage them to converge towards surfaces, without compromising their ability to reconstruct thin structures. First, we employ a discrete opacity grid representation instead of a continuous density field, which allows opacity values to discontinuously transition from zero to one at the surface. Second, we anti-alias by casting multiple rays per pixel, which allows occlusion boundaries and subpixel structures to be modelled without using semi-transparent voxels. Third, we minimize the binary entropy of the opacity values, which facilitates the extraction of surface geometry by encouraging opacity values to binarize towards the end of training. Lastly, we develop a fusion-based meshing strategy followed by mesh simplification and appearance model fitting. The compact meshes produced by our model can be rendered in real-time on mobile devices and achieve significantly higher view synthesis quality compared to existing mesh-based approaches.
PDF111December 15, 2024