ChatPaper.aiChatPaper

Estabilidad Geométrica: El Eje Ausente de las Representaciones

Geometric Stability: The Missing Axis of Representations

January 14, 2026
Autores: Prashant C. Raju
cs.AI

Resumen

El análisis de representaciones aprendidas tiene un punto ciego: se centra en la similitud, midiendo cuán estrechamente se alinean los *embeddings* con referencias externas, pero la similitud solo revela lo que está representado, no si esa estructura es robusta. Introducimos la estabilidad geométrica, una dimensión distinta que cuantifica la fiabilidad con la que la geometría representacional se mantiene bajo perturbación, y presentamos Shesha, un marco para medirla. A través de 2.463 configuraciones en siete dominios, demostramos que la estabilidad y la similitud están empíricamente no correlacionadas (ρ ≈ 0,01) y son mecanicistamente distintas: las métricas de similitud colapsan tras eliminar los componentes principales principales, mientras que la estabilidad conserva la sensibilidad a la estructura detallada del manifold. Esta distinción produce perspectivas accionables: para la monitorización de seguridad, la estabilidad actúa como un canario geométrico funcional, detectando la deriva estructural casi 2 veces más sensiblemente que CKA mientras filtra el ruido no funcional que desencadena falsas alarmas en métricas de distancia rígidas; para la controlabilidad, la estabilidad supervisada predice la dirigibilidad lineal (ρ = 0,89-0,96); para la selección de modelos, la estabilidad se disocia de la transferibilidad, revelando un impuesto geométrico que la optimización de transferencia incurre. Más allá del aprendizaje automático, la estabilidad predice la coherencia de la perturbación CRISPR y el acoplamiento neuro-conductual. Al cuantificar la fiabilidad con la que los sistemas mantienen la estructura, la estabilidad geométrica proporciona un complemento necesario a la similitud para auditar representaciones en sistemas biológicos y computacionales.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.
PDF41January 16, 2026