ChatPaper.aiChatPaper

Stabilità Geometrica: L'Asse Mancante delle Rappresentazioni

Geometric Stability: The Missing Axis of Representations

January 14, 2026
Autori: Prashant C. Raju
cs.AI

Abstract

L'analisi delle rappresentazioni apprese presenta un punto cieco: si concentra sulla similarità, misurando quanto strettamente gli embedding si allineano a riferimenti esterni, ma la similarità rivela solo ciò che è rappresentato, non se tale struttura sia robusta. Introduciamo la stabilità geometrica, una dimensione distinta che quantifica l'affidabilità con cui la geometria rappresentativa si mantiene sotto perturbazione, e presentiamo Shesha, un framework per misurarla. Attraverso 2.463 configurazioni in sette domini, dimostriamo che stabilità e similarità sono empiricamente non correlate (ρ≈0.01) e meccanicamente distinte: le metriche di similarità collassano dopo la rimozione delle componenti principali principali, mentre la stabilità mantiene sensibilità alla struttura fine del manifold. Questa distinzione fornisce indicazioni operative: per il monitoraggio della sicurezza, la stabilità funge da canarino geometrico funzionale, rilevando lo structural drift con una sensibilità quasi doppia rispetto al CKA, filtrando il rumore non funzionale che innesca falsi allarmi nelle metriche di distanza rigide; per la controllabilità, la stabilità supervisionata predice la steerabilità lineare (ρ=0.89-0.96); per la selezione dei modelli, la stabilità si dissocia dalla trasferibilità, rivelando una tassa geometrica che l'ottimizzazione del transfer comporta. Oltre al machine learning, la stabilità predice la coerenza delle perturbazioni CRISPR e l'accoppiamento neuro-comportamentale. Quantificando l'affidabilità con cui i sistemi mantengono la struttura, la stabilità geometrica fornisce un complemento necessario alla similarità per l'audit delle rappresentazioni attraverso sistemi biologici e computazionali.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.
PDF62February 27, 2026