ChatPaper.aiChatPaper

La Geometría de Tokens en las Representaciones Internas de Modelos de Lenguaje Grandes

The Geometry of Tokens in Internal Representations of Large Language Models

January 17, 2025
Autores: Karthik Viswanathan, Yuri Gardinazzi, Giada Panerai, Alberto Cazzaniga, Matteo Biagetti
cs.AI

Resumen

Investigamos la relación entre la geometría de los embeddings de tokens y su papel en la predicción del siguiente token dentro de los modelos transformer. Un aspecto importante de esta conexión utiliza la noción de medida empírica, que codifica la distribución de nubes de puntos de tokens a lo largo de las capas del transformer y dirige la evolución de las representaciones de tokens en el marco de interacción de campo medio. Utilizamos métricas como la dimensión intrínseca, la superposición de vecindarios y la similitud del coseno para explorar observacionalmente estas medidas empíricas a lo largo de las capas. Para validar nuestro enfoque, comparamos estas métricas con un conjunto de datos donde los tokens están desordenados, lo que interrumpe la estructura sintáctica y semántica. Nuestros hallazgos revelan una correlación entre las propiedades geométricas de los embeddings de tokens y la pérdida de entropía cruzada de las predicciones del siguiente token, lo que implica que las indicaciones con valores de pérdida más altos tienen tokens representados en espacios de mayor dimensión.
English
We investigate the relationship between the geometry of token embeddings and their role in the next token prediction within transformer models. An important aspect of this connection uses the notion of empirical measure, which encodes the distribution of token point clouds across transformer layers and drives the evolution of token representations in the mean-field interacting picture. We use metrics such as intrinsic dimension, neighborhood overlap, and cosine similarity to observationally probe these empirical measures across layers. To validate our approach, we compare these metrics to a dataset where the tokens are shuffled, which disrupts the syntactic and semantic structure. Our findings reveal a correlation between the geometric properties of token embeddings and the cross-entropy loss of next token predictions, implying that prompts with higher loss values have tokens represented in higher-dimensional spaces.

Summary

AI-Generated Summary

PDF92January 22, 2025