VoMP: 体積的機械的特性場の予測
VoMP: Predicting Volumetric Mechanical Property Fields
October 27, 2025
著者: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI
要旨
物理シミュレーションは、空間的に変化する機械的特性に依存することが多いが、これらの特性は従来、労力を要する手作業で作成されてきた。VoMPは、3Dオブジェクトの体積全体にわたるヤング率(E)、ポアソン比(ν)、密度(ρ)を、レンダリングおよびボクセル化可能な任意の表現形式で予測するように訓練された順伝搬型の手法である。VoMPは、ボクセル単位のマルチビュー特徴量を集約し、それを訓練済みのジオメトリトランスフォーマーに渡して、ボクセル単位の材料潜在コードを予測する。これらの潜在コードは、物理的に妥当な材料の多様体上に存在し、実世界データセットから学習されるため、デコードされたボクセル単位の材料の有効性が保証される。オブジェクトレベルの訓練データを得るために、我々はセグメンテーションされた3Dデータセット、材料データベース、視覚言語モデルからの知識を統合するアノテーションパイプラインと新たなベンチマークを提案する。実験により、VoMPが正確な体積特性を推定し、精度と速度の両面で従来技術を大幅に上回ることを示す。
English
Physical simulation relies on spatially-varying mechanical properties, often
laboriously hand-crafted. VoMP is a feed-forward method trained to predict
Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout
the volume of 3D objects, in any representation that can be rendered and
voxelized. VoMP aggregates per-voxel multi-view features and passes them to our
trained Geometry Transformer to predict per-voxel material latent codes. These
latents reside on a manifold of physically plausible materials, which we learn
from a real-world dataset, guaranteeing the validity of decoded per-voxel
materials. To obtain object-level training data, we propose an annotation
pipeline combining knowledge from segmented 3D datasets, material databases,
and a vision-language model, along with a new benchmark. Experiments show that
VoMP estimates accurate volumetric properties, far outperforming prior art in
accuracy and speed.