ChatPaper.aiChatPaper

La Géométrie des Tokens dans les Représentations Internes des Grands Modèles de Langage

The Geometry of Tokens in Internal Representations of Large Language Models

January 17, 2025
Auteurs: Karthik Viswanathan, Yuri Gardinazzi, Giada Panerai, Alberto Cazzaniga, Matteo Biagetti
cs.AI

Résumé

Nous étudions la relation entre la géométrie des plongements de jetons et leur rôle dans la prédiction du jeton suivant au sein des modèles de transformateurs. Un aspect important de cette connexion utilise la notion de mesure empirique, qui encode la distribution des nuages de points de jetons à travers les couches de transformateurs et influence l'évolution des représentations de jetons dans l'image d'interaction de champ moyen. Nous utilisons des métriques telles que la dimension intrinsèque, le chevauchement de voisinage et la similarité cosinus pour sonder observationnellement ces mesures empiriques à travers les couches. Pour valider notre approche, nous comparons ces métriques à un ensemble de données où les jetons sont mélangés, ce qui perturbe la structure syntaxique et sémantique. Nos résultats révèlent une corrélation entre les propriétés géométriques des plongements de jetons et la perte d'entropie croisée des prédictions de jeton suivant, ce qui implique que les instructions avec des valeurs de perte plus élevées ont des jetons représentés dans des espaces de dimensions supérieures.
English
We investigate the relationship between the geometry of token embeddings and their role in the next token prediction within transformer models. An important aspect of this connection uses the notion of empirical measure, which encodes the distribution of token point clouds across transformer layers and drives the evolution of token representations in the mean-field interacting picture. We use metrics such as intrinsic dimension, neighborhood overlap, and cosine similarity to observationally probe these empirical measures across layers. To validate our approach, we compare these metrics to a dataset where the tokens are shuffled, which disrupts the syntactic and semantic structure. Our findings reveal a correlation between the geometric properties of token embeddings and the cross-entropy loss of next token predictions, implying that prompts with higher loss values have tokens represented in higher-dimensional spaces.

Summary

AI-Generated Summary

PDF92January 22, 2025