Interpretabilità Meccanicistica Geospaziale dei Modelli Linguistici di Grande Dimensione
Geospatial Mechanistic Interpretability of Large Language Models
May 6, 2025
Autori: Stef De Sabbata, Stefano Mizzaro, Kevin Roitero
cs.AI
Abstract
I Large Language Model (LLM) hanno dimostrato capacità senza precedenti in vari compiti di elaborazione del linguaggio naturale. La loro abilità di elaborare e generare testo e codice utilizzabile li ha resi onnipresenti in molti campi, mentre il loro impiego come basi di conoscenza e strumenti di "ragionamento" rimane un'area di ricerca in corso. In geografia, un numero crescente di studi si è concentrato sulla valutazione delle conoscenze geografiche degli LLM e sulla loro capacità di eseguire ragionamenti spaziali. Tuttavia, si sa ancora molto poco sul funzionamento interno di questi modelli, in particolare su come elaborano le informazioni geografiche.
In questo capitolo, stabiliamo un nuovo framework per lo studio dell'interpretabilità meccanicistica geospaziale, utilizzando l'analisi spaziale per decodificare come gli LLM gestiscono le informazioni geografiche. Il nostro obiettivo è approfondire la comprensione delle rappresentazioni interne che questi modelli complessi generano durante l'elaborazione delle informazioni geografiche, ciò che si potrebbe definire "come gli LLM pensano alle informazioni geografiche", se tale espressione non fosse un'antropomorfizzazione eccessiva.
Iniziamo delineando l'uso del probing per rivelare le strutture interne degli LLM. Introduciamo poi il campo dell'interpretabilità meccanicistica, discutendo l'ipotesi della sovrapposizione e il ruolo degli autoencoder sparsi nel separare le rappresentazioni interne polisemantiche degli LLM in caratteristiche più interpretabili e monosemantiche. Nei nostri esperimenti, utilizziamo l'autocorrelazione spaziale per mostrare come le caratteristiche ottenute per i toponimi presentino schemi spaziali legati alla loro posizione geografica e possano quindi essere interpretate geospazialmente, fornendo intuizioni su come questi modelli elaborano le informazioni geografiche. Concludiamo discutendo come il nostro framework possa contribuire a plasmare lo studio e l'uso dei modelli di fondazione in geografia.
English
Large Language Models (LLMs) have demonstrated unprecedented capabilities
across various natural language processing tasks. Their ability to process and
generate viable text and code has made them ubiquitous in many fields, while
their deployment as knowledge bases and "reasoning" tools remains an area of
ongoing research. In geography, a growing body of literature has been focusing
on evaluating LLMs' geographical knowledge and their ability to perform spatial
reasoning. However, very little is still known about the internal functioning
of these models, especially about how they process geographical information.
In this chapter, we establish a novel framework for the study of geospatial
mechanistic interpretability - using spatial analysis to reverse engineer how
LLMs handle geographical information. Our aim is to advance our understanding
of the internal representations that these complex models generate while
processing geographical information - what one might call "how LLMs think about
geographic information" if such phrasing was not an undue anthropomorphism.
We first outline the use of probing in revealing internal structures within
LLMs. We then introduce the field of mechanistic interpretability, discussing
the superposition hypothesis and the role of sparse autoencoders in
disentangling polysemantic internal representations of LLMs into more
interpretable, monosemantic features. In our experiments, we use spatial
autocorrelation to show how features obtained for placenames display spatial
patterns related to their geographic location and can thus be interpreted
geospatially, providing insights into how these models process geographical
information. We conclude by discussing how our framework can help shape the
study and use of foundation models in geography.