ChatPaper.aiChatPaper

SparseFlex: Hoogresolutie en willekeurige topologie 3D-vormmodellering

SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling

March 27, 2025
Auteurs: Xianglong He, Zi-Xin Zou, Chia-Hao Chen, Yuan-Chen Guo, Ding Liang, Chun Yuan, Wanli Ouyang, Yan-Pei Cao, Yangguang Li
cs.AI

Samenvatting

Het creëren van hoogwaardige 3D-meshes met willekeurige topologie, inclusief open oppervlakken en complexe interieurs, blijft een grote uitdaging. Bestaande methoden op basis van impliciete velden vereisen vaak kostbare en detailverlagende waterdichte conversie, terwijl andere benaderingen moeite hebben met hoge resoluties. Dit artikel introduceert SparseFlex, een nieuwe isosurface-representatie met een sparse-structuur die differentieerbare mesh-reconstructie mogelijk maakt bij resoluties tot 1024^3, direct vanuit renderingverliezen. SparseFlex combineert de nauwkeurigheid van Flexicubes met een sparse voxelstructuur, waarbij de berekening wordt gericht op oppervlak-aanliggende regio's en open oppervlakken efficiënt worden verwerkt. Cruciaal is dat we een frustum-aware sectionele voxel-trainingsstrategie introduceren die alleen relevante voxels activeert tijdens het renderen, waardoor het geheugengebruik aanzienlijk wordt verminderd en training op hoge resolutie mogelijk wordt gemaakt. Hierdoor wordt voor het eerst ook de reconstructie van mesh-interieurs mogelijk gemaakt met alleen renderingsupervisie. Hierop voortbouwend demonstreren we een complete vormmodelleringspipeline door een variational autoencoder (VAE) en een rectified flow transformer te trainen voor hoogwaardige 3D-vormgeneratie. Onze experimenten tonen state-of-the-art reconstructienauwkeurigheid, met een ~82% reductie in Chamfer Distance en een ~88% toename in F-score vergeleken met eerdere methoden, en demonstreren de generatie van hoogwaardige, gedetailleerde 3D-vormen met willekeurige topologie. Door differentieerbare mesh-reconstructie en -generatie op hoge resolutie mogelijk te maken met renderingverliezen, zet SparseFlex de standaard voor 3D-vormrepresentatie en -modellering aanzienlijk verder.
English
Creating high-fidelity 3D meshes with arbitrary topology, including open surfaces and complex interiors, remains a significant challenge. Existing implicit field methods often require costly and detail-degrading watertight conversion, while other approaches struggle with high resolutions. This paper introduces SparseFlex, a novel sparse-structured isosurface representation that enables differentiable mesh reconstruction at resolutions up to 1024^3 directly from rendering losses. SparseFlex combines the accuracy of Flexicubes with a sparse voxel structure, focusing computation on surface-adjacent regions and efficiently handling open surfaces. Crucially, we introduce a frustum-aware sectional voxel training strategy that activates only relevant voxels during rendering, dramatically reducing memory consumption and enabling high-resolution training. This also allows, for the first time, the reconstruction of mesh interiors using only rendering supervision. Building upon this, we demonstrate a complete shape modeling pipeline by training a variational autoencoder (VAE) and a rectified flow transformer for high-quality 3D shape generation. Our experiments show state-of-the-art reconstruction accuracy, with a ~82% reduction in Chamfer Distance and a ~88% increase in F-score compared to previous methods, and demonstrate the generation of high-resolution, detailed 3D shapes with arbitrary topology. By enabling high-resolution, differentiable mesh reconstruction and generation with rendering losses, SparseFlex significantly advances the state-of-the-art in 3D shape representation and modeling.

Summary

AI-Generated Summary

PDF92March 31, 2025