ChatPaper.aiChatPaper

VoMP: Previsão de Campos de Propriedades Mecânicas Volumétricas

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
Autores: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

Resumo

A simulação física depende de propriedades mecânicas espacialmente variáveis, frequentemente elaboradas manualmente com grande esforço. VoMP é um método *feed-forward* treinado para prever o módulo de Young (E), o coeficiente de Poisson (nu) e a densidade (rho) em todo o volume de objetos 3D, em qualquer representação que possa ser renderizada e voxelizada. O VoMP agrega características multivoxel de múltiplas vistas e as transmite ao nosso *Geometry Transformer* treinado para prever códigos latentes de material por voxel. Esses códigos latentes residem em uma variedade de materiais fisicamente plausíveis, que aprendemos a partir de um conjunto de dados do mundo real, garantindo a validade dos materiais decodificados por voxel. Para obter dados de treinamento em nível de objeto, propomos um *pipeline* de anotação que combina conhecimento de conjuntos de dados 3D segmentados, bancos de dados de materiais e um modelo de visão e linguagem, juntamente com um novo parâmetro de referência. Experimentos mostram que o VoMP estima propriedades volumétricas precisas, superando amplamente o estado da arte em precisão e velocidade.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF71February 8, 2026