ChatPaper.aiChatPaper

Apprentissage des structures propres des variétés de données non structurées

Learning Eigenstructures of Unstructured Data Manifolds

November 30, 2025
papers.authors: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel
cs.AI

papers.abstract

Nous présentons un nouveau cadre qui apprend directement une base spectrale pour l'analyse de formes et de variétés à partir de données non structurées, éliminant le besoin de sélection d'opérateur traditionnelle, de discrétisation et de solveurs aux valeurs propres. Fondée sur la théorie de l'approximation optimale, nous entraînons un réseau à décomposer un opérateur d'approximation implicite en minimisant l'erreur de reconstruction dans la base apprise sur une distribution choisie de fonctions tests. Pour des distributions appropriées, celles-ci peuvent être vues comme une approximation de l'opérateur Laplacien et de sa décomposition en valeurs propres, qui sont fondamentaux en traitement géométrique. De plus, notre méthode retrouve de manière unifiée non seulement la base spectrale, mais aussi la densité d'échantillonnage de la métrique implicite et les valeurs propres de l'opérateur sous-jacent. Notamment, notre méthode non supervisée ne fait aucune hypothèse sur la variété de données, telle qu'un maillage ou la dimensionnalité de la variété, lui permettant de s'adapter à des jeux de données arbitraires de toute dimension. Sur des nuages de points situés sur des surfaces en 3D et des variétés d'images en haute dimension, notre approche produit des bases spectrales significatives, qui peuvent ressembler à celles du Laplacien, sans construction explicite d'un opérateur. En remplaçant la sélection, la construction et la décomposition en valeurs propres traditionnelles d'un opérateur par une approche basée sur l'apprentissage, notre cadre offre une alternative rigoureuse et pilotée par les données aux pipelines conventionnels. Cela ouvre de nouvelles possibilités en traitement géométrique pour les données non structurées, en particulier dans les espaces de grande dimension.
English
We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.
PDF21December 3, 2025