Geometrische Stabiliteit: De Ontbrekende As van Representaties
Geometric Stability: The Missing Axis of Representations
January 14, 2026
Auteurs: Prashant C. Raju
cs.AI
Samenvatting
Analyse van aangeleerde representaties kent een blinde vlek: ze richt zich op gelijkenis, door te meten hoe nauw embeddings overeenkomen met externe referenties, maar gelijkenis onthult alleen wát er wordt gerepresenteerd, niet of die structuur robuust is. Wij introduceren geometrische stabiliteit, een aparte dimensie die kwantificeert hoe betrouwbaar de representatiegeometrie standhoudt onder perturbatie, en presenteren Shesha, een raamwerk om dit te meten. In 2.463 configuraties across zeven domeinen tonen we aan dat stabiliteit en gelijkenis empirisch ongecorreleerd zijn (ρ≈0.01) en mechanistisch verschillend: gelijkenismetrieken storten in na verwijdering van de belangrijkste hoofdcomponenten, terwijl stabiliteit gevoelig blijft voor fijnmazige manifoldstructuur. Dit onderscheid levert praktische inzichten op: voor veiligheidsmonitoring fungeert stabiliteit als een functionele geometrische kanarie, die structurele drift bijna 2x gevoeliger detecteert dan CKA, terwijl niet-functionele ruis wordt uitgefilterd die valse alarmen veroorzaakt in rigide afstandsmetrieken; voor bestuurbaarheid voorspelt supervised stabiliteit lineaire stuurbaarheid (ρ=0.89-0.96); voor modelselectie dissocieert stabiliteit van transferleerbaarheid, wat een geometrische tol onthult die transferoptimalisatie met zich meebrengt. Buiten machine learning voorspelt stabiliteit CRISPR-perturbatiecoherentie en neurale-gedragskoppeling. Door te kwantificeren hoe betrouwbaar systemen structuur behouden, biedt geometrische stabiliteit een noodzakelijke aanvulling op gelijkenis voor het auditen van representaties in biologische en computationele systemen.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.