ChatPaper.aiChatPaper

VoMP: Previsione dei Campi di Proprietà Meccaniche Volumetriche

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
Autori: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

Abstract

La simulazione fisica si basa su proprietà meccaniche variabili spazialmente, spesso realizzate laboriosamente a mano. VoMP è un metodo feed-forward addestrato per prevedere il modulo di Young (E), il coefficiente di Poisson (ν) e la densità (ρ) nell'intero volume di oggetti 3D, in qualsiasi rappresentazione che possa essere renderizzata e voxelizzata. VoMP aggrega caratteristiche multi-vista per voxel e le trasferisce al nostro Geometry Transformer addestrato per prevedere codici latenti materiale per voxel. Questi codici latenti risiedono su una varietà di materiali fisicamente plausibili, che apprendiamo da un dataset del mondo reale, garantendo la validità dei materiali per voxel decodificati. Per ottenere dati di addestramento a livello di oggetto, proponiamo una pipeline di annotazione che combina conoscenze da dataset 3D segmentati, banche dati di materiali e un modello visione-linguaggio, insieme a un nuovo benchmark. Gli esperimenti mostrano che VoMP stima proprietà volumetriche accurate, superando di gran lunga lo stato dell'arte in precisione e velocità.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 3, 2025