Apprendimento delle Strutture Eigen delle Varietà di Dati Non Strutturati
Learning Eigenstructures of Unstructured Data Manifolds
November 30, 2025
Autori: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel
cs.AI
Abstract
Introduciamo un framework innovativo che apprende direttamente una base spettrale per l'analisi di forme e varietà da dati non strutturati, eliminando la necessità della tradizionale selezione dell'operatore, discretizzazione e risolutori agli autovalori. Basandoci sulla teoria dell'approssimazione ottimale, addestriamo una rete a decomporre un operatore di approssimazione implicita minimizzando l'errore di ricostruzione nella base appresa su una distribuzione scelta di funzioni di prova. Per distribuzioni appropriate, queste possono essere viste come un'approssimazione dell'operatore di Laplace e della sua autodecomposizione, che sono fondamentali nell'elaborazione geometrica. Inoltre, il nostro metodo recupera in maniera unificata non solo la base spettrale, ma anche la densità di campionamento della metrica implicita e gli autovalori dell'operatore sottostante. Notevolmente, il nostro metodo non supervisionato non fa assunzioni sulla varietà dei dati, come una mesh o la dimensionalità della varietà, permettendogli di scalare a dataset arbitrari di qualsiasi dimensione. Su nuvole di punti giacenti su superfici in 3D e varietà di immagini ad alta dimensionalità, il nostro approccio produce basi spettrali significative, che possono assomigliare a quelle del Laplaciano, senza la costruzione esplicita di un operatore. Sostituendo la tradizionale selezione, costruzione e autodecomposizione dell'operatore con un approccio basato sull'apprendimento, il nostro framework offre un'alternativa principiata e guidata dai dati alle pipeline convenzionali. Questo apre nuove possibilità nell'elaborazione geometrica per dati non strutturati, specialmente in spazi ad alta dimensionalità.
English
We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.