Пересмотр платоновской гипотезы репрезентации: аристотелевский взгляд
Revisiting the Platonic Representation Hypothesis: An Aristotelian View
February 16, 2026
Авторы: Fabian Gröger, Shuo Wen, Maria Brbić
cs.AI
Аннотация
Гипотеза платоновских представлений предполагает, что репрезентации в нейронных сетях сходятся к общей статистической модели реальности. Мы демонстрируем, что существующие метрики для оценки сходства репрезентаций подвержены влиянию масштаба сети: увеличение глубины или ширины модели может систематически завышать показатели репрезентационного сходства. Для коррекции этих эффектов мы предлагаем основанную на перестановках систему нулевой калибровки, которая преобразует любую метрику сходства репрезентаций в калиброванную оценку со статистическими гарантиями. Пересматривая гипотезу платоновских представлений с помощью нашей системы калибровки, мы выявляем более сложную картину: кажущаяся конвергенция, регистрируемая глобальными спектральными мерами, практически исчезает после калибровки, в то время как локальное сходство окрестностей (но не локальные расстояния) сохраняет значительную согласованность между различными модальностями. На основе этих результатов мы предлагаем аристотелевскую гипотезу представлений: репрезентации в нейронных сетях сходятся к общим локальным отношениям соседства.
English
The Platonic Representation Hypothesis suggests that representations from neural networks are converging to a common statistical model of reality. We show that the existing metrics used to measure representational similarity are confounded by network scale: increasing model depth or width can systematically inflate representational similarity scores. To correct these effects, we introduce a permutation-based null-calibration framework that transforms any representational similarity metric into a calibrated score with statistical guarantees. We revisit the Platonic Representation Hypothesis with our calibration framework, which reveals a nuanced picture: the apparent convergence reported by global spectral measures largely disappears after calibration, while local neighborhood similarity, but not local distances, retains significant agreement across different modalities. Based on these findings, we propose the Aristotelian Representation Hypothesis: representations in neural networks are converging to shared local neighborhood relationships.