Lernen der Eigenstrukturen unstrukturierter Datenmannigfaltigkeiten
Learning Eigenstructures of Unstructured Data Manifolds
November 30, 2025
papers.authors: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel
cs.AI
papers.abstract
Wir stellen ein neuartiges Framework vor, das direkt eine spektrale Basis für die Analyse von Formen und Mannigfaltigkeiten aus unstrukturierten Daten lernt und so die Notwendigkeit traditioneller Operatorauswahl, Diskretisierung und Eigenlöser umgeht. Basierend auf der Theorie der optimalen Approximation trainieren wir ein Netzwerk, um einen impliziten Approximationsoperator durch Minimierung des Rekonstruktionsfehlers in der gelernten Basis über eine gewählte Verteilung von Testfunktionen zu zerlegen. Für geeignete Verteilungen können diese als Approximation des Laplace-Operators und seiner Eigenzerlegung angesehen werden, die in der Geometrieverarbeitung grundlegend sind. Darüber hinaus gewinnt unsere Methode auf einheitliche Weise nicht nur die spektrale Basis zurück, sondern auch die Abtastdichte der impliziten Metrik und die Eigenwerte des zugrundeliegenden Operators. Bemerkenswerterweise trifft unsere unüberwachte Methode keine Annahmen über die Datenmannigfaltigkeit, wie etwa Vernetzung oder Mannigfaltigkeitsdimensionalität, was eine Skalierung auf beliebige Datensätze beliebiger Dimension ermöglicht. Bei Punktwolken auf Oberflächen im 3D-Raum und hochdimensionalen Bildmannigfaltigkeiten liefert unser Ansatz aussagekräftige spektrale Basen, die denen des Laplace-Operators ähneln können, ohne dass ein Operator explizit konstruiert wird. Indem wir die traditionelle Operatorauswahl, -konstruktion und Eigenzerlegung durch einen lernbasierten Ansatz ersetzen, bietet unser Framework eine prinzipielle, datengesteuerte Alternative zu konventionellen Pipelines. Dies eröffnet neue Möglichkeiten in der Geometrieverarbeitung für unstrukturierte Daten, insbesondere in hochdimensionalen Räumen.
English
We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.