ChatPaper.aiChatPaper

VoMP: Predicción de Campos de Propiedades Mecánicas Volumétricas

VoMP: Predicting Volumetric Mechanical Property Fields

October 27, 2025
Autores: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina
cs.AI

Resumen

La simulación física depende de propiedades mecánicas que varían espacialmente, frecuentemente creadas de forma laboriosa de manera manual. VoMP es un método de propagación directa entrenado para predecir el módulo de Young (E), la relación de Poisson (nu) y la densidad (rho) en todo el volumen de objetos 3D, en cualquier representación que pueda ser renderizada y voxelizada. VoMP agrega características multivista por vóxel y las pasa a nuestro Transformer de Geometría entrenado para predecir códigos latentes de materiales por vóxel. Estos latentes residen en una variedad de materiales físicamente plausibles, que aprendemos a partir de un conjunto de datos del mundo real, garantizando la validez de los materiales decodificados por vóxel. Para obtener datos de entrenamiento a nivel de objeto, proponemos un pipeline de anotación que combina conocimiento de conjuntos de datos 3D segmentados, bases de datos de materiales y un modelo de visión y lenguaje, junto con un nuevo punto de referencia. Los experimentos demuestran que VoMP estima propiedades volumétricas precisas, superando ampliamente a técnicas anteriores en precisión y velocidad.
English
Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus (E), Poisson's ratio (nu), and density (rho) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
PDF61December 31, 2025