ChatPaper.aiChatPaper

VoMP: Прогнозирование объемных полей механических свойств

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
Авторы: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

Аннотация

Физическое моделирование опирается на пространственно-вариативные механические свойства, которые часто создаются вручную с большим трудом. VoMP — это прямой метод, обученный предсказывать модуль Юнга (E), коэффициент Пуассона (ν) и плотность (ρ) во всем объеме 3D-объектов, в любом представлении, которое можно визуализировать и вокселизировать. VoMP агрегирует особенности для каждого вокселя на основе многовидовых представлений и передает их обученному геометрическому трансформеру для предсказания латентных кодов материала для каждого вокселя. Эти латентные переменные лежат на многообразии физически правдоподобных материалов, которое мы обучаем на наборе данных из реального мира, гарантируя достоверность декодированных материалов для каждого вокселя. Для получения обучающих данных на уровне объекта мы предлагаем конвейер разметки, объединяющий знания из сегментированных 3D-наборов данных, баз данных материалов и языковой модели зрения, а также новый эталонный тест. Эксперименты показывают, что VoMP оценивает объемные свойства с высокой точностью, значительно превосходя предыдущие методы по точности и скорости.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 31, 2025