ChatPaper.aiChatPaper

Ripensare l'Ipotesi della Rappresentazione Platonica: Una Prospettiva Aristotelica

Revisiting the Platonic Representation Hypothesis: An Aristotelian View

February 16, 2026
Autori: Fabian Gröger, Shuo Wen, Maria Brbić
cs.AI

Abstract

L'Ipotesi della Rappresentazione Platonica suggerisce che le rappresentazioni delle reti neurali stiano convergendo verso un modello statistico comune della realtà. Dimostriamo che le metriche esistenti utilizzate per misurare la somiglianza rappresentazionale sono confuse dalla scala della rete: l'aumento della profondità o dell'ampiezza del modello può sistematicamente inflazionare i punteggi di somiglianza rappresentazionale. Per correggere questi effetti, introduciamo un framework di null-calibrazione basato su permutazioni che trasforma qualsiasi metrica di somiglianza rappresentazionale in un punteggio calibrato con garanzie statistiche. Rivediamo l'Ipotesi della Rappresentazione Platonica con il nostro framework di calibrazione, il quale rivela un quadro sfumato: l'apparente convergenza riportata dalle misure spettrali globali scompare in gran parte dopo la calibrazione, mentre la somiglianza locale di vicinato, ma non le distanze locali, conserva un accordo significativo tra diverse modalità. Sulla base di questi risultati, proponiamo l'Ipotesi della Rappresentazione Aristotelica: le rappresentazioni nelle reti neurali stanno convergendo verso relazioni di vicinato locali condivise.
English
The Platonic Representation Hypothesis suggests that representations from neural networks are converging to a common statistical model of reality. We show that the existing metrics used to measure representational similarity are confounded by network scale: increasing model depth or width can systematically inflate representational similarity scores. To correct these effects, we introduce a permutation-based null-calibration framework that transforms any representational similarity metric into a calibrated score with statistical guarantees. We revisit the Platonic Representation Hypothesis with our calibration framework, which reveals a nuanced picture: the apparent convergence reported by global spectral measures largely disappears after calibration, while local neighborhood similarity, but not local distances, retains significant agreement across different modalities. Based on these findings, we propose the Aristotelian Representation Hypothesis: representations in neural networks are converging to shared local neighborhood relationships.
PDF113March 25, 2026