ChatPaper.aiChatPaper

プラトン的表現仮説の再考:アリストテレス的視点から

Revisiting the Platonic Representation Hypothesis: An Aristotelian View

February 16, 2026
著者: Fabian Gröger, Shuo Wen, Maria Brbić
cs.AI

要旨

プラトニック表現仮説は、ニューラルネットワークの表現が現実の共通統計モデルへ収束しつつあることを示唆している。本研究では、既存の表現類似性指標がネットワーク規模によって混同されていることを明らかにする:モデルの深さや幅の増加が、体系的に表現類似性スコアを過大評価するのである。この影響を補正するため、任意の表現類似性指標を統計的保証を持つ較正済みスコアに変換する、順列ベースの帰無較正フレームワークを提案する。較正フレームワークを用いてプラトニック表現仮説を再検討すると、微妙な実態が浮かび上がる:大域的なスペクトル測度が報告した見かけ上の収束は、較正後にはほぼ消失する一方で、局所的近傍類似性(ただし局所距離ではない)は、異なるモダリティ間で有意な一致を保持する。これらの知見に基づき、我々はアリストテレス的表現仮説を提唱する:ニューラルネットワークの表現は、共有された局所的近傍関係へ収束しつつある。
English
The Platonic Representation Hypothesis suggests that representations from neural networks are converging to a common statistical model of reality. We show that the existing metrics used to measure representational similarity are confounded by network scale: increasing model depth or width can systematically inflate representational similarity scores. To correct these effects, we introduce a permutation-based null-calibration framework that transforms any representational similarity metric into a calibrated score with statistical guarantees. We revisit the Platonic Representation Hypothesis with our calibration framework, which reveals a nuanced picture: the apparent convergence reported by global spectral measures largely disappears after calibration, while local neighborhood similarity, but not local distances, retains significant agreement across different modalities. Based on these findings, we propose the Aristotelian Representation Hypothesis: representations in neural networks are converging to shared local neighborhood relationships.
PDF71February 19, 2026