Stabilité géométrique : l'axe manquant des représentations
Geometric Stability: The Missing Axis of Representations
January 14, 2026
papers.authors: Prashant C. Raju
cs.AI
papers.abstract
L'analyse des représentations apprises présente un angle mort : elle se concentre sur la similarité, mesurant à quel point les plongements s'alignent sur des références externes, mais la similarité ne révèle que ce qui est représenté, et non si cette structure est robuste. Nous introduisons la stabilité géométrique, une dimension distincte qui quantifie la fiabilité avec laquelle la géométrie représentationnelle se maintient sous perturbation, et présentons Shesha, un cadre pour la mesurer. Sur 2 463 configurations dans sept domaines, nous montrons que la stabilité et la similarité sont empiriquement non corrélées (ρ ≈ 0,01) et mécanistiquement distinctes : les métriques de similarité s'effondrent après suppression des principales composantes, tandis que la stabilité conserve une sensibilité à la structure fine de la variété. Cette distinction produit des insights actionnables : pour la surveillance de la sécurité, la stabilité agit comme un signal d'alarme géométrique fonctionnel, détectant la dérive structurelle près de 2 fois plus sensiblement que le CKA tout en filtrant le bruit non fonctionnel qui déclenche de fausses alertes dans les métriques de distance rigides ; pour la contrôlabilité, la stabilité supervisée prédit la pilotabilité linéaire (ρ = 0,89-0,96) ; pour la sélection de modèles, la stabilité se dissocie de la transférabilité, révélant une taxe géométrique que l'optimisation du transfert engendre. Au-delà de l'apprentissage automatique, la stabilité prédit la cohérence des perturbations CRISPR et le couplage neuro-comportemental. En quantifiant la fiabilité avec laquelle les systèmes maintiennent leur structure, la stabilité géométrique fournit un complément nécessaire à la similarité pour auditer les représentations dans les systèmes biologiques et informatiques.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.