LLM-Microscope: Revelando o Papel Oculto da Pontuação na Memória de Contexto dos TransformersLLM-Microscope: Uncovering the Hidden Role of Punctuation in Context
Memory of Transformers
Apresentamos métodos para quantificar como os Modelos de Linguagem de Grande Escala (LLMs) codificam e armazenam informações contextuais, revelando que tokens frequentemente considerados menores (por exemplo, determinantes, pontuação) carregam um contexto surpreendentemente alto. Notavelmente, a remoção desses tokens — especialmente stopwords, artigos e vírgulas — consistentemente degrada o desempenho em MMLU e BABILong-4k, mesmo que apenas tokens irrelevantes sejam removidos. Nossa análise também mostra uma forte correlação entre contextualização e linearidade, onde a linearidade mede o quão próxima a transformação dos embeddings de uma camada para a próxima pode ser aproximada por um mapeamento linear único. Essas descobertas destacam a importância oculta dos tokens de preenchimento na manutenção do contexto. Para exploração adicional, apresentamos o LLM-Microscope, um kit de ferramentas de código aberto que avalia a não linearidade em nível de token, avalia a memória contextual, visualiza as contribuições das camadas intermediárias (por meio de uma versão adaptada do Logit Lens) e mede a dimensionalidade intrínseca das representações. Esse kit de ferramentas ilumina como tokens aparentemente triviais podem ser críticos para o entendimento de longo alcance.