ChatPaper.aiChatPaper

VoMP: 体積的機械的特性場の予測

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
著者: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

要旨

物理シミュレーションは、空間的に変化する機械的特性に依存することが多いが、これらの特性は従来、労力を要する手作業で作成されてきた。VoMPは、3Dオブジェクトの体積全体にわたるヤング率(E)、ポアソン比(ν)、密度(ρ)を、レンダリングおよびボクセル化可能な任意の表現形式で予測するように訓練された順伝搬型の手法である。VoMPは、ボクセル単位のマルチビュー特徴量を集約し、それを訓練済みのジオメトリトランスフォーマーに渡して、ボクセル単位の材料潜在コードを予測する。これらの潜在コードは、物理的に妥当な材料の多様体上に存在し、実世界データセットから学習されるため、デコードされたボクセル単位の材料の有効性が保証される。オブジェクトレベルの訓練データを得るために、我々はセグメンテーションされた3Dデータセット、材料データベース、視覚言語モデルからの知識を統合するアノテーションパイプラインと新たなベンチマークを提案する。実験により、VoMPが正確な体積特性を推定し、精度と速度の両面で従来技術を大幅に上回ることを示す。
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 31, 2025