ChatPaper.aiChatPaper

Squeeze3D: Il tuo modello di generazione 3D è segretamente un compressore neurale estremo

Squeeze3D: Your 3D Generation Model is Secretly an Extreme Neural Compressor

June 9, 2025
Autori: Rishit Dagli, Yushi Guan, Sankeerth Durvasula, Mohammadreza Mofayezi, Nandita Vijaykumar
cs.AI

Abstract

Proponiamo Squeeze3D, un framework innovativo che sfrutta la conoscenza implicita appresa da modelli generativi 3D pre-addestrati esistenti per comprimere dati 3D con rapporti di compressione estremamente elevati. Il nostro approccio collega gli spazi latenti tra un encoder pre-addestrato e un modello generativo pre-addestrato attraverso reti di mappatura addestrabili. Qualsiasi modello 3D rappresentato come mesh, nuvola di punti o campo di radianza viene prima codificato dall'encoder pre-addestrato e poi trasformato (cioè compresso) in un codice latente altamente compatto. Questo codice latente può essere efficacemente utilizzato come rappresentazione estremamente compressa della mesh o della nuvola di punti. Una rete di mappatura trasforma il codice latente compresso nello spazio latente di un potente modello generativo, che viene poi condizionato per ricreare il modello 3D originale (cioè decompressione). Squeeze3D viene addestrato interamente su dati sintetici generati e non richiede alcun dataset 3D. L'architettura di Squeeze3D può essere utilizzata in modo flessibile con encoder 3D pre-addestrati esistenti e modelli generativi esistenti. Può supportare in modo flessibile diversi formati, tra cui mesh, nuvole di punti e campi di radianza. I nostri esperimenti dimostrano che Squeeze3D raggiunge rapporti di compressione fino a 2187x per mesh con texture, 55x per nuvole di punti e 619x per campi di radianza, mantenendo una qualità visiva paragonabile a molti metodi esistenti. Squeeze3D comporta solo una piccola latenza di compressione e decompressione poiché non prevede l'addestramento di reti specifiche per oggetti per comprimere un oggetto.
English
We propose Squeeze3D, a novel framework that leverages implicit prior knowledge learnt by existing pre-trained 3D generative models to compress 3D data at extremely high compression ratios. Our approach bridges the latent spaces between a pre-trained encoder and a pre-trained generation model through trainable mapping networks. Any 3D model represented as a mesh, point cloud, or a radiance field is first encoded by the pre-trained encoder and then transformed (i.e. compressed) into a highly compact latent code. This latent code can effectively be used as an extremely compressed representation of the mesh or point cloud. A mapping network transforms the compressed latent code into the latent space of a powerful generative model, which is then conditioned to recreate the original 3D model (i.e. decompression). Squeeze3D is trained entirely on generated synthetic data and does not require any 3D datasets. The Squeeze3D architecture can be flexibly used with existing pre-trained 3D encoders and existing generative models. It can flexibly support different formats, including meshes, point clouds, and radiance fields. Our experiments demonstrate that Squeeze3D achieves compression ratios of up to 2187x for textured meshes, 55x for point clouds, and 619x for radiance fields while maintaining visual quality comparable to many existing methods. Squeeze3D only incurs a small compression and decompression latency since it does not involve training object-specific networks to compress an object.
PDF102June 11, 2025