Fast3Dcache: Trainingsfreie 3D-Geometrie-Synthesebeschleunigung
Fast3Dcache: Training-free 3D Geometry Synthesis Acceleration
November 27, 2025
papers.authors: Mengyu Yang, Yanming Yang, Chenyi Xu, Chenxi Song, Yufan Zuo, Tong Zhao, Ruibo Li, Chi Zhang
cs.AI
papers.abstract
Diffusionsmodelle haben beeindruckende generative Qualität in verschiedenen Modalitäten wie 2D-Bildern, Videos und 3D-Formen erreicht, doch ihr Inferenzprozess bleibt aufgrund des iterativen Denoising-Verfahrens rechenintensiv. Während neuere cache-basierte Methoden redundante Berechnungen effektiv wiederverwenden, um die 2D- und Videogenerierung zu beschleunigen, führt die direkte Anwendung dieser Techniken auf 3D-Diffusionsmodelle zu erheblichen Störungen der geometrischen Konsistenz. Bei der 3D-Synthese akkumulieren selbst geringe numerische Fehler in gecachten latenten Merkmalen und verursachen strukturelle Artefakte sowie topologische Inkonsistenzen. Um diese Einschränkung zu überwinden, schlagen wir Fast3Dcache vor, ein trainingsfreies, geometrieaware-Caching-Framework, das die 3D-Diffusionsinferenz beschleunigt und gleichzeitig die geometrische Treue bewahrt. Unsere Methode führt eine Predictive Caching Scheduler Constraint (PCSC) ein, um Cache-Kontingente dynamisch anhand von Voxel-Stabilisierungsmustern zu bestimmen, sowie ein Spatiotemporal Stability Criterion (SSC), um stabile Merkmale zur Wiederverwendung basierend auf Geschwindigkeitsmagnitude und Beschleunigungskriterien auszuwählen. Umfassende Experimente zeigen, dass Fast3Dcache die Inferenz signifikant beschleunigt und eine Beschleunigung von bis zu 27,12 % sowie eine Reduktion der FLOPs um 54,8 % erreicht, bei minimaler Verschlechterung der geometrischen Qualität, gemessen an Chamfer Distance (2,48 %) und F-Score (1,95 %).
English
Diffusion models have achieved impressive generative quality across modalities like 2D images, videos, and 3D shapes, but their inference remains computationally expensive due to the iterative denoising process. While recent caching-based methods effectively reuse redundant computations to speed up 2D and video generation, directly applying these techniques to 3D diffusion models can severely disrupt geometric consistency. In 3D synthesis, even minor numerical errors in cached latent features accumulate, causing structural artifacts and topological inconsistencies. To overcome this limitation, we propose Fast3Dcache, a training-free geometry-aware caching framework that accelerates 3D diffusion inference while preserving geometric fidelity. Our method introduces a Predictive Caching Scheduler Constraint (PCSC) to dynamically determine cache quotas according to voxel stabilization patterns and a Spatiotemporal Stability Criterion (SSC) to select stable features for reuse based on velocity magnitude and acceleration criterion. Comprehensive experiments show that Fast3Dcache accelerates inference significantly, achieving up to a 27.12% speed-up and a 54.8% reduction in FLOPs, with minimal degradation in geometric quality as measured by Chamfer Distance (2.48%) and F-Score (1.95%).