Het leren van eigenstructuren van ongestructureerde datamanifolds
Learning Eigenstructures of Unstructured Data Manifolds
November 30, 2025
Auteurs: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel
cs.AI
Samenvatting
Wij introduceren een nieuw raamwerk dat rechtstreeks een spectrale basis leert voor vorm- en variëteitsanalyse vanuit ongestructureerde data, waardoor de noodzaak van traditionele operatorselectie, discretisatie en eigenwaardesolvers wordt geëlimineerd. Geworteld in de optimale-benaderingstheorie trainen wij een netwerk om een impliciete benaderingsoperator te decomponeren door de reconstructiefout in de geleerde basis te minimaliseren over een gekozen verdeling van proeffuncties. Voor geschikte verdelingen kunnen deze worden gezien als een benadering van de Laplace-operator en diens eigenwaardedecompositie, welke fundamenteel zijn in geometrieverwerking. Bovendien herstelt onze methode op een uniforme manier niet alleen de spectrale basis, maar ook de bemonsteringsdichtheid van de impliciete metriek en de eigenwaarden van de onderliggende operator. Opmerkelijk is dat onze onbewaakte methode geen aannames doet over de datavariëteit, zoals meshing of variëteitsdimensionaliteit, waardoor deze kan schalen naar willekeurige datasets van elke dimensie. Op puntenwolken die op oppervlakken in 3D en hoogdimensionale beeldvariëteiten liggen, levert onze aanpak zinvolle spectrale bases op, die kunnen lijken op die van de Laplace-operator, zonder expliciete constructie van een operator. Door de traditionele operatorselectie, -constructie en eigenwaardedecompositie te vervangen door een op leren gebaseerde aanpak, biedt ons raamwerk een principekundig, data-gedreven alternatief voor conventionele pijplijnen. Dit opent nieuwe mogelijkheden in geometrieverwerking voor ongestructureerde data, in het bijzonder in hoogdimensionale ruimten.
English
We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.