LLM-Microscope : Révéler le rôle caché de la ponctuation dans la mémoire contextuelle des TransformersLLM-Microscope: Uncovering the Hidden Role of Punctuation in Context
Memory of Transformers
Nous introduisons des méthodes pour quantifier comment les grands modèles de langage (LLM) encodent et stockent les informations contextuelles, révélant que les tokens souvent considérés comme mineurs (par exemple, les déterminants, la ponctuation) portent un contexte étonnamment élevé. De manière notable, la suppression de ces tokens — en particulier les mots vides, les articles et les virgules — dégrade systématiquement les performances sur MMLU et BABILong-4k, même si seuls les tokens jugés non pertinents sont supprimés. Notre analyse montre également une forte corrélation entre la contextualisation et la linéarité, où la linéarité mesure à quel point la transformation des embeddings d'une couche à la suivante peut être approximée par une seule application linéaire. Ces résultats soulignent l'importance cachée des tokens de remplissage dans le maintien du contexte. Pour approfondir cette exploration, nous présentons LLM-Microscope, une boîte à outils open-source qui évalue la non-linéarité au niveau des tokens, mesure la mémoire contextuelle, visualise les contributions des couches intermédiaires (via une version adaptée du Logit Lens) et quantifie la dimension intrinsèque des représentations. Cet outil met en lumière comment des tokens apparemment triviaux peuvent être essentiels pour la compréhension à long terme.