Geometrische Stabilität: Die fehlende Achse von Repräsentationen
Geometric Stability: The Missing Axis of Representations
January 14, 2026
papers.authors: Prashant C. Raju
cs.AI
papers.abstract
Die Analyse erworbener Repräsentationen weist einen blinden Fleck auf: Sie konzentriert sich auf Ähnlichkeit, indem sie misst, wie genau Embeddings mit externen Referenzen übereinstimmen. Doch Ähnlichkeit offenbart lediglich, *was* repräsentiert wird, nicht aber, ob diese Struktur robust ist. Wir führen die geometrische Stabilität ein, eine separate Dimension, die quantifiziert, wie zuverlässig die repräsentative Geometrie unter Störungen bestehen bleibt, und präsentieren Shesha, ein Framework zu ihrer Messung. Über 2.463 Konfigurationen in sieben Domänen hinweg zeigen wir, dass Stabilität und Ähnlichkeit empirisch unkorreliert sind (ρ≈0,01) und mechanistisch verschieden: Ähnlichkeitsmetriken brechen zusammen, nachdem die wichtigsten Hauptkomponenten entfernt wurden, während die Stabilität ihre Sensitivität für die feingranulare Struktur der Mannigfaltigkeit beibehält.
Diese Unterscheidung liefert umsetzbare Erkenntnisse: Für das Sicherheitsmonitoring fungiert Stabilität als funktionaler geometrischer Kanarienvogel, der strukturelle Drift fast zweimal empfindlicher erkennt als CKA, während nicht-funktionales Rauschen herausgefiltert wird, das in starren Abstandsmetriken zu Fehlalarmen führt; für die Steuerbarkeit sagt die überwachte Stabilität lineare Lenkbarkeit vorher (ρ=0,89-0,96); für die Modellauswahl dissoziiert Stabilität von der Übertragbarkeit und offenbart eine geometrische Abgabe, die die Transferoptimierung verursacht. Über maschinelles Lernen hinaus sagt die Stabilität die Kohärenz von CRISPR-Perturbationen und die neuronale Verhaltenskopplung vorher. Indem sie quantifiziert, wie zuverlässig Systeme ihre Struktur aufrechterhalten, bietet die geometrische Stabilität eine notwendige Ergänzung zur Ähnlichkeit, um Repräsentationen in biologischen und computergestützten Systemen zu überprüfen.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.