ChatPaper.aiChatPaper

VoMP: Voorspelling van Volumetrische Mechanische Eigenschappenvelden

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
Auteurs: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

Samenvatting

Fysische simulatie berust op ruimtelijk variërende mechanische eigenschappen, die vaak moeizaam handmatig worden vervaardigd. VoMP is een forward-propagatiemethode die is getraind om de elasticiteitsmodulus (E), de Poisson-ratio (ν) en de dichtheid (ρ) te voorspellen in het gehele volume van 3D-objecten, in elke representatie die kan worden gerenderd en gevoxeliseerd. VoMP aggregeert per-voxel multi-view kenmerken en geeft deze door aan onze getrainde Geometry Transformer om per-voxel materiaal latente codes te voorspellen. Deze latente codes bevinden zich op een variëteit van fysisch plausibele materialen, die we leren uit een real-world dataset, waardoor de geldigheid van de gedecodeerde per-voxel materialen wordt gegarandeerd. Om object-level trainingsdata te verkrijgen, stellen we een annotatiepijplijn voor die kennis combineert uit gesegmenteerde 3D-datasets, materiaaldatabases en een vision-language model, samen met een nieuwe benchmark. Experimenten tonen aan dat VoMP nauwkeurige volumetrische eigenschappen schat, en daarbij de eerdere staat van de techniek ver overtreft in nauwkeurigheid en snelheid.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 31, 2025