Estabilidade Geométrica: O Eixo Ausente das Representações
Geometric Stability: The Missing Axis of Representations
January 14, 2026
Autores: Prashant C. Raju
cs.AI
Resumo
A análise de representações aprendidas tem um ponto cego: ela se concentra na similaridade, medindo o quão próximos os *embeddings* estão de referências externas, mas a similaridade revela apenas o que é representado, não se essa estrutura é robusta. Introduzimos a estabilidade geométrica, uma dimensão distinta que quantifica a confiabilidade com que a geometria representacional se mantém sob perturbação, e apresentamos o Shesha, uma estrutura para medi-la. Em 2.463 configurações em sete domínios, mostramos que estabilidade e similaridade são empiricamente não correlacionadas (ρ ≈ 0,01) e mecanicamente distintas: as métricas de similaridade colapsam após a remoção dos principais componentes principais, enquanto a estabilidade mantém a sensibilidade à estrutura de *manifold* de granularidade fina. Essa distinção gera *insights* acionáveis: para monitoramento de segurança, a estabilidade atua como um canário geométrico funcional, detectando *drift* estrutural quase 2 vezes mais sensivelmente do que o CKA, enquanto filtra o ruído não funcional que dispara alarmes falsos em métricas de distância rígidas; para controlabilidade, a estabilidade supervisionada prevê a capacidade de direcionamento linear (ρ = 0,89-0,96); para seleção de modelos, a estabilidade se dissocia da transferibilidade, revelando um ônus geométrico que a otimização por transferência incorre. Além do aprendizado de máquina, a estabilidade prevê coerência de perturbação por CRISPR e acoplamento neurocomportamental. Ao quantificar a confiabilidade com que os sistemas mantêm a estrutura, a estabilidade geométrica fornece um complemento necessário à similaridade para auditar representações em sistemas biológicos e computacionais.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.