VoMP: Vorhersage volumetrischer mechanischer Eigenschaftsfelder
VoMP: Predicting Volumetric Mechanical Property Fields
October 27, 2025
papers.authors: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI
papers.abstract
Physikalische Simulationen basieren auf räumlich variierenden mechanischen Eigenschaften, die oft aufwändig manuell erstellt werden. VoMP ist ein vorwärtsgerichtetes Verfahren, das darauf trainiert ist, den Elastizitätsmodul (E), die Querkontraktionszahl (ν) und die Dichte (ρ) im gesamten Volumen von 3D-Objekten vorherzusagen – und zwar in jeder Darstellungsform, die gerendert und voxelisiert werden kann. VoMP aggregiert pro-Voxel-Merkmale aus Mehrfachansichten und leitet diese an unseren trainierten Geometry Transformer weiter, um pro-Voxel materielle latente Codes zu prognostizieren. Diese Latenten liegen auf einer Mannigfaltigkeit physikalisch plausibler Materialien, die wir aus einem realen Datensatz lernen und die die Gültigkeit der decodierten pro-Voxel-Materialien gewährleistet. Um Trainingsdaten auf Objektebene zu erhalten, schlagen wir einen Annotationsprozess vor, der Wissen aus segmentierten 3D-Datensätzen, Materialdatenbanken und einem Vision-Language-Model kombiniert, ergänzt durch einen neuen Benchmark. Experimente zeigen, dass VoMP volumetrische Eigenschaften präzise schätzt und dabei bisherige Verfahren in Genauigkeit und Geschwindigkeit deutlich übertrifft.
English
Physical simulation relies on spatially-varying mechanical properties, often
laboriously hand-crafted. VoMP is a feed-forward method trained to predict
Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout
the volume of 3D objects, in any representation that can be rendered and
voxelized. VoMP aggregates per-voxel multi-view features and passes them to our
trained Geometry Transformer to predict per-voxel material latent codes. These
latents reside on a manifold of physically plausible materials, which we learn
from a real-world dataset, guaranteeing the validity of decoded per-voxel
materials. To obtain object-level training data, we propose an annotation
pipeline combining knowledge from segmented 3D datasets, material databases,
and a vision-language model, along with a new benchmark. Experiments show that
VoMP estimates accurate volumetric properties, far outperforming prior art in
accuracy and speed.