ChatPaper.aiChatPaper

Изучение собственных структур многообразий неструктурированных данных

Learning Eigenstructures of Unstructured Data Manifolds

November 30, 2025
Авторы: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel
cs.AI

Аннотация

Мы представляем новую методологию, которая непосредственно обучает спектральный базис для анализа форм и многообразий на основе неструктурированных данных, устраняя необходимость в традиционном выборе оператора, дискретизации и решениях задач на собственные значения. Основываясь на теории оптимальных приближений, мы обучаем сеть декомпозиции неявного оператора аппроксимации путем минимизации ошибки реконструкции в изучаемом базисе для заданного распределения пробных функций. Для подходящих распределений эти функции можно рассматривать как аппроксимацию оператора Лапласа и его спектрального разложения, которые являются фундаментальными в геометрической обработке. Более того, наш метод единообразно восстанавливает не только спектральный базис, но и плотность выборки неявной метрики, а также собственные значения базового оператора. Примечательно, что наш неконтролируемый метод не накладывает предположений на многообразие данных, таких как наличие сетки или размерность многообразия, что позволяет масштабировать его на произвольные наборы данных любой размерности. На точечных облаках, лежащих на поверхностях в 3D, и многообразиях высокоразмерных изображений наш подход дает содержательные спектральные базисы, которые могут напоминать базисы Лапласа, без явного построения оператора. Заменяя традиционные этапы выбора оператора, его построения и спектрального разложения обучением, наша методология предлагает принципиальную, управляемую данными альтернативу стандартным конвейерам. Это открывает новые возможности в геометрической обработке неструктурированных данных, особенно в высокоразмерных пространствах.
English
We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.
PDF21December 3, 2025