VoMP : Prédiction des champs de propriétés mécaniques volumiques
VoMP: Predicting Volumetric Mechanical Property Fields
October 27, 2025
papers.authors: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI
papers.abstract
La simulation physique repose sur des propriétés mécaniques variant spatialement, souvent laborieusement conçues manuellement. VoMP est une méthode feed-forward entraînée à prédire le module d'Young (E), le coefficient de Poisson (ν) et la masse volumique (ρ) dans tout le volume d'objets 3D, quelle que soit leur représentation pouvant être rendue et voxélisée. VoMP agrège des caractéristiques multi-vues par voxel et les transmet à notre Geometry Transformer entraîné pour prédire des codes latents matériaux par voxel. Ces latents résident sur une variété de matériaux physiquement plausibles, que nous apprenons à partir d'un jeu de données réel, garantissant la validité des matériaux décodés par voxel. Pour obtenir des données d'entraînement au niveau objet, nous proposons un pipeline d'annotation combinant des connaissances issues de jeux de données 3D segmentées, de bases de données matériaux et d'un modèle vision-langage, ainsi qu'un nouveau benchmark. Les expériences montrent que VoMP estime avec précision les propriétés volumétriques, surpassant largement l'état de l'art en précision et en vitesse.
English
Physical simulation relies on spatially-varying mechanical properties, often
laboriously hand-crafted. VoMP is a feed-forward method trained to predict
Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout
the volume of 3D objects, in any representation that can be rendered and
voxelized. VoMP aggregates per-voxel multi-view features and passes them to our
trained Geometry Transformer to predict per-voxel material latent codes. These
latents reside on a manifold of physically plausible materials, which we learn
from a real-world dataset, guaranteeing the validity of decoded per-voxel
materials. To obtain object-level training data, we propose an annotation
pipeline combining knowledge from segmented 3D datasets, material databases,
and a vision-language model, along with a new benchmark. Experiments show that
VoMP estimates accurate volumetric properties, far outperforming prior art in
accuracy and speed.