ChatPaper.aiChatPaper

SparseFlex: Modelado de Formas 3D de Alta Resolución y Topología Arbitraria

SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling

March 27, 2025
Autores: Xianglong He, Zi-Xin Zou, Chia-Hao Chen, Yuan-Chen Guo, Ding Liang, Chun Yuan, Wanli Ouyang, Yan-Pei Cao, Yangguang Li
cs.AI

Resumen

La creación de mallas 3D de alta fidelidad con topología arbitraria, incluyendo superficies abiertas e interiores complejos, sigue siendo un desafío significativo. Los métodos existentes basados en campos implícitos a menudo requieren una conversión costosa y que degrada los detalles para lograr superficies cerradas, mientras que otros enfoques tienen dificultades con altas resoluciones. Este artículo presenta SparseFlex, una novedosa representación de isosuperficie con estructura dispersa que permite la reconstrucción diferenciable de mallas a resoluciones de hasta 1024^3 directamente a partir de pérdidas de renderizado. SparseFlex combina la precisión de Flexicubes con una estructura de vóxeles dispersa, enfocando el cálculo en regiones adyacentes a la superficie y manejando eficientemente superficies abiertas. De manera crucial, introducimos una estrategia de entrenamiento de vóxeles seccionales consciente del frustum que activa solo los vóxeles relevantes durante el renderizado, reduciendo drásticamente el consumo de memoria y permitiendo el entrenamiento en alta resolución. Esto también permite, por primera vez, la reconstrucción de interiores de mallas utilizando únicamente supervisión de renderizado. Sobre esta base, demostramos una canalización completa de modelado de formas entrenando un autoencoder variacional (VAE) y un transformador de flujo rectificado para la generación de formas 3D de alta calidad. Nuestros experimentos muestran una precisión de reconstrucción de vanguardia, con una reducción del ~82% en la Distancia de Chamfer y un aumento del ~88% en el F-score en comparación con métodos anteriores, y demuestran la generación de formas 3D detalladas y de alta resolución con topología arbitraria. Al permitir la reconstrucción y generación diferenciable de mallas en alta resolución con pérdidas de renderizado, SparseFlex avanza significativamente el estado del arte en la representación y modelado de formas 3D.
English
Creating high-fidelity 3D meshes with arbitrary topology, including open surfaces and complex interiors, remains a significant challenge. Existing implicit field methods often require costly and detail-degrading watertight conversion, while other approaches struggle with high resolutions. This paper introduces SparseFlex, a novel sparse-structured isosurface representation that enables differentiable mesh reconstruction at resolutions up to 1024^3 directly from rendering losses. SparseFlex combines the accuracy of Flexicubes with a sparse voxel structure, focusing computation on surface-adjacent regions and efficiently handling open surfaces. Crucially, we introduce a frustum-aware sectional voxel training strategy that activates only relevant voxels during rendering, dramatically reducing memory consumption and enabling high-resolution training. This also allows, for the first time, the reconstruction of mesh interiors using only rendering supervision. Building upon this, we demonstrate a complete shape modeling pipeline by training a variational autoencoder (VAE) and a rectified flow transformer for high-quality 3D shape generation. Our experiments show state-of-the-art reconstruction accuracy, with a ~82% reduction in Chamfer Distance and a ~88% increase in F-score compared to previous methods, and demonstrate the generation of high-resolution, detailed 3D shapes with arbitrary topology. By enabling high-resolution, differentiable mesh reconstruction and generation with rendering losses, SparseFlex significantly advances the state-of-the-art in 3D shape representation and modeling.

Summary

AI-Generated Summary

PDF92March 31, 2025