ChatPaper.aiChatPaper

기하학적 안정성: 표현의 누락된 축

Geometric Stability: The Missing Axis of Representations

January 14, 2026
저자: Prashant C. Raju
cs.AI

초록

학습된 표현의 분석에는 맹점이 존재합니다. 바로 외부 참조와 임베딩이 얼마나 밀접하게 일치하는지 측정하는 유사성에만 초점을 맞춘다는 점인데, 유사성은 단지 무엇이 표현되었는지만 보여줄 뿐 해당 구조가 강건한지는 알려주지 않습니다. 우리는 표현 기하학이 교란 하에서 얼마나 안정적으로 유지되는지를 정량화하는 새로운 차원인 기하학적 안정성을 소개하고, 이를 측정하기 위한 프레임워크인 Shesha를 제시합니다. 7개 분야의 2,463개 구성에 대한 실험에서 안정성과 유사성은 경험적으로 상관관계가 거의 없으며(ρ≈0.01) 기제적으로도 구별됨을 보입니다. 유사도 지표는 주성분 상위 요소를 제거하면 붕괴되는 반면, 안정성은 미세한 매니폴드 구조에 대한 민감도를 유지합니다. 이러한 차이는 실행 가능한 통찰로 이어집니다. 안전성 모니터링 분야에서는 안정성이 기능적 기하학적 캐너리(canary) 역할을 하여, CKA보다 구조적 드리프트를 약 2배 더 민감하게 감지하면서도 경직된 거리 지표에서 오경보를 유발하는 비기능적 노이즈를 걸러냅니다. 제어 가능성 분야에서는 지도 학습 기반 안정성이 선형 조종 가능성을 높은 정확도로 예측합니다(ρ=0.89-0.96). 모델 선택 분야에서는 안정성이 전이 가능성과 분리되어 전이 최적화가 초래하는 기하학적 비용(tax)을 드러냅니다. 기계 학습을 넘어서, 안정성은 CRISPR 교란 일관성과 신경-행동 결합을 예측합니다. 시스템이 구조를 얼마나 안정적으로 유지하는지 정량화함으로써, 기하학적 안정성은 생물학 및 컴퓨팅 시스템 전반에 걸쳐 표현을 감사(auditing)하기 위해 유사성에 필요한 보완적 지표를 제공합니다.
English
Analysis of learned representations has a blind spot: it focuses on similarity, measuring how closely embeddings align with external references, but similarity reveals only what is represented, not whether that structure is robust. We introduce geometric stability, a distinct dimension that quantifies how reliably representational geometry holds under perturbation, and present Shesha, a framework for measuring it. Across 2,463 configurations in seven domains, we show that stability and similarity are empirically uncorrelated (ρapprox 0.01) and mechanistically distinct: similarity metrics collapse after removing the top principal components, while stability retains sensitivity to fine-grained manifold structure. This distinction yields actionable insights: for safety monitoring, stability acts as a functional geometric canary, detecting structural drift nearly 2times more sensitively than CKA while filtering out the non-functional noise that triggers false alarms in rigid distance metrics; for controllability, supervised stability predicts linear steerability (ρ= 0.89-0.96); for model selection, stability dissociates from transferability, revealing a geometric tax that transfer optimization incurs. Beyond machine learning, stability predicts CRISPR perturbation coherence and neural-behavioral coupling. By quantifying how reliably systems maintain structure, geometric stability provides a necessary complement to similarity for auditing representations across biological and computational systems.
PDF41January 16, 2026