LLM-Microscope: Раскрытие скрытой роли пунктуации в контекстной памяти трансформеровLLM-Microscope: Uncovering the Hidden Role of Punctuation in Context
Memory of Transformers
Мы представляем методы для количественной оценки того, как крупные языковые модели (LLM) кодируют и сохраняют контекстную информацию, показывая, что токены, часто считающиеся второстепенными (например, артикли, пунктуация), несут удивительно высокий контекст. Примечательно, что удаление этих токенов — особенно стоп-слов, артиклов и запятых — последовательно ухудшает производительность на тестах MMLU и BABILong-4k, даже если удаляются только нерелевантные токены. Наш анализ также демонстрирует сильную корреляцию между контекстуализацией и линейностью, где линейность измеряет, насколько близко преобразование от эмбеддингов одного слоя к следующему может быть аппроксимировано с помощью одного линейного отображения. Эти результаты подчеркивают скрытую важность "заполняющих" токенов для поддержания контекста. Для дальнейшего исследования мы представляем LLM-Microscope — открытый инструментарий, который оценивает нелинейность на уровне токенов, анализирует контекстуальную память, визуализирует вклад промежуточных слоев (с помощью адаптированного Logit Lens) и измеряет внутреннюю размерность представлений. Этот инструментарий проливает свет на то, как кажущиеся незначительными токены могут быть критически важны для понимания на больших дистанциях.