Opnieuw bezien van de Platoonse representatiehypothese: een Aristotelisch perspectief
Revisiting the Platonic Representation Hypothesis: An Aristotelian View
February 16, 2026
Auteurs: Fabian Gröger, Shuo Wen, Maria Brbić
cs.AI
Samenvatting
De Platonic Representation Hypothesis suggereert dat representaties van neurale netwerken convergeren naar een gemeenschappelijk statistisch model van de werkelijkheid. Wij tonen aan dat de bestaande metrieken die worden gebruikt om representatiegelijkenis te meten, verstoord worden door de schaal van het netwerk: het vergroten van de modeldiepte of -breedte kan representatiegelijkenisscores systematisch opdrijven. Om deze effecten te corrigeren, introduceren we een op permutatie gebaseerd nulkalibratiekader dat elke representatiegelijkenismetriek omzet in een gekalibreerde score met statistische garanties. Wij herzien de Platonic Representation Hypothesis met ons kalibratiekader, wat een genuanceerd beeld onthult: de ogenschijnlijke convergentie gerapporteerd door globale spectrale maten verdwijnt grotendeels na kalibratie, terwijl lokale nabijheidsgelijkenis, maar niet lokale afstanden, significante overeenstemming behoudt tussen verschillende modaliteiten. Op basis van deze bevindingen stellen wij de Aristoteliaanse Representatiehypothese voor: representaties in neurale netwerken convergeren naar gedeelde lokale nabijheidsrelaties.
English
The Platonic Representation Hypothesis suggests that representations from neural networks are converging to a common statistical model of reality. We show that the existing metrics used to measure representational similarity are confounded by network scale: increasing model depth or width can systematically inflate representational similarity scores. To correct these effects, we introduce a permutation-based null-calibration framework that transforms any representational similarity metric into a calibrated score with statistical guarantees. We revisit the Platonic Representation Hypothesis with our calibration framework, which reveals a nuanced picture: the apparent convergence reported by global spectral measures largely disappears after calibration, while local neighborhood similarity, but not local distances, retains significant agreement across different modalities. Based on these findings, we propose the Aristotelian Representation Hypothesis: representations in neural networks are converging to shared local neighborhood relationships.