ChatPaper.aiChatPaper

Fast3Dcache: Trainingsvrije versnelling van 3D-geometriesynthese

Fast3Dcache: Training-free 3D Geometry Synthesis Acceleration

November 27, 2025
Auteurs: Mengyu Yang, Yanming Yang, Chenyi Xu, Chenxi Song, Yufan Zuo, Tong Zhao, Ruibo Li, Chi Zhang
cs.AI

Samenvatting

Diffusiemodellen hebben indrukwekkende generatieve kwaliteit bereikt in modaliteiten zoals 2D-beelden, video's en 3D-vormen, maar hun inferentie blijft rekenkundig kostbaar vanwege het iteratieve denoisingsproces. Hoewel recente cache-gebaseerde methoden effectief redundante berekeningen hergebruiken om 2D- en videogeneratie te versnellen, kan het direct toepassen van deze technieken op 3D-diffusiemodellen de geometrische consistentie ernstig verstoren. Bij 3D-synthese hopen zelfs kleine numerieke fouten in gecachete latente kenmerken zich op, wat structurele artefacten en topologische inconsistenties veroorzaakt. Om deze beperking te overwinnen, stellen we Fast3Dcache voor, een trainingsvrij, geometrie-bewust cacheframework dat 3D-diffusie-inferentie versnelt terwijl de geometrische nauwkeurigheid behouden blijft. Onze methode introduceert een *Predictive Caching Scheduler Constraint* (PCSC) om cachequota dynamisch te bepalen op basis van voxelstabilisatiepatronen en een *Spatiotemporal Stability Criterion* (SSC) om stabiele kenmerken voor hergebruik te selecteren op basis van een snelheidsmagnitude- en acceleratiecriterium. Uitgebreide experimenten tonen aan dat Fast3Dcache de inferentie aanzienlijk versnelt, met een versnelling tot 27,12% en een vermindering van 54,8% in FLOPs, met minimale verslechtering van de geometrische kwaliteit gemeten aan de hand van Chamfer Distance (2,48%) en F-Score (1,95%).
English
Diffusion models have achieved impressive generative quality across modalities like 2D images, videos, and 3D shapes, but their inference remains computationally expensive due to the iterative denoising process. While recent caching-based methods effectively reuse redundant computations to speed up 2D and video generation, directly applying these techniques to 3D diffusion models can severely disrupt geometric consistency. In 3D synthesis, even minor numerical errors in cached latent features accumulate, causing structural artifacts and topological inconsistencies. To overcome this limitation, we propose Fast3Dcache, a training-free geometry-aware caching framework that accelerates 3D diffusion inference while preserving geometric fidelity. Our method introduces a Predictive Caching Scheduler Constraint (PCSC) to dynamically determine cache quotas according to voxel stabilization patterns and a Spatiotemporal Stability Criterion (SSC) to select stable features for reuse based on velocity magnitude and acceleration criterion. Comprehensive experiments show that Fast3Dcache accelerates inference significantly, achieving up to a 27.12% speed-up and a 54.8% reduction in FLOPs, with minimal degradation in geometric quality as measured by Chamfer Distance (2.48%) and F-Score (1.95%).
PDF11December 2, 2025