ChatPaper.aiChatPaper

Fast3Dcache : Accélération de la synthèse de géométrie 3D sans apprentissage

Fast3Dcache: Training-free 3D Geometry Synthesis Acceleration

November 27, 2025
papers.authors: Mengyu Yang, Yanming Yang, Chenyi Xu, Chenxi Song, Yufan Zuo, Tong Zhao, Ruibo Li, Chi Zhang
cs.AI

papers.abstract

Les modèles de diffusion ont atteint une qualité générative impressionnante sur diverses modalités comme les images 2D, les vidéos et les formes 3D, mais leur inférence reste coûteuse en calcul en raison du processus de débruîtage itératif. Bien que des méthodes récentes basées sur la mise en cache réutilisent efficacement les calculs redondants pour accélérer la génération 2D et vidéo, leur application directe aux modèles de diffusion 3D peut gravement perturber la cohérence géométrique. Dans la synthèse 3D, même de légères erreurs numériques dans les caractéristiques latentes mises en cache s'accumulent, provoquant des artéfacts structurels et des incohérences topologiques. Pour surmonter cette limite, nous proposons Fast3Dcache, un cadre de mise en cache géométrique sans apprentissage qui accélère l'inférence des modèles de diffusion 3D tout en préservant la fidélité géométrique. Notre méthode introduit une Contrainte d'Ordonnancement de Cache Prédictif (PCSC) pour déterminer dynamiquement les quotas de cache selon les motifs de stabilisation des voxels, et un Critère de Stabilité Spatiotemporelle (SSC) pour sélectionner les caractéristiques stables à réutiliser sur la base de la magnitude de vélocité et d'un critère d'accélération. Des expériences complètes montrent que Fast3Dcache accélère significativement l'inférence, atteignant jusqu'à 27,12 % d'accélération et une réduction de 54,8 % des FLOPs, avec une dégradation minimale de la qualité géométrique mesurée par la Distance de Chamfer (2,48 %) et le F-Score (1,95 %).
English
Diffusion models have achieved impressive generative quality across modalities like 2D images, videos, and 3D shapes, but their inference remains computationally expensive due to the iterative denoising process. While recent caching-based methods effectively reuse redundant computations to speed up 2D and video generation, directly applying these techniques to 3D diffusion models can severely disrupt geometric consistency. In 3D synthesis, even minor numerical errors in cached latent features accumulate, causing structural artifacts and topological inconsistencies. To overcome this limitation, we propose Fast3Dcache, a training-free geometry-aware caching framework that accelerates 3D diffusion inference while preserving geometric fidelity. Our method introduces a Predictive Caching Scheduler Constraint (PCSC) to dynamically determine cache quotas according to voxel stabilization patterns and a Spatiotemporal Stability Criterion (SSC) to select stable features for reuse based on velocity magnitude and acceleration criterion. Comprehensive experiments show that Fast3Dcache accelerates inference significantly, achieving up to a 27.12% speed-up and a 54.8% reduction in FLOPs, with minimal degradation in geometric quality as measured by Chamfer Distance (2.48%) and F-Score (1.95%).
PDF11December 2, 2025