ChatPaper.aiChatPaper

VoMP: 체적 기계적 물성장 예측

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
저자: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

초록

물리 시뮬레이션은 공간에 따라 변화하는 기계적 특성에 의존하는 경우가 많으며, 이러한 특성은 대개 수작업으로 힘들게 제작됩니다. VoMP는 렌더링 및 복셀화가 가능한 모든 표현 방식의 3D 객체 전체 체적에 걸쳐 영률(E), 푸아송 비(nu), 밀도(rho)를 예측하도록 훈련된 순방향 방법입니다. VoMP는 복셀별 다중 뷰 특징을 집계하고 이를 훈련된 Geometry Transformer에 전달하여 복셀별 재료 잠재 코드를 예측합니다. 이러한 잠재 코드는 실제 세계 데이터셋으로부터 학습된 물리적으로 타당한 재료들의 다양체 상에 존재하므로, 복호화된 복셀별 재료의 유효성이 보장됩니다. 객체 수준의 훈련 데이터를 얻기 위해, 우리는 분할된 3D 데이터셋, 재료 데이터베이스, 비전-언어 모델의 지식을 결합한 주석 파이프라인과 새로운 벤치마크를 제안합니다. 실험 결과 VoMP는 정확한 체적 특성을 추정하여 정확도와 속도 모두에서 기존 기술을 크게 능가하는 것으로 나타났습니다.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 31, 2025