ChatPaper.aiChatPaper

Обучите старые SAE новым трюкам в новых доменах с помощью бустинга

Teach Old SAEs New Domain Tricks with Boosting

July 17, 2025
Авторы: Nikita Koriagin, Yaroslav Aksenov, Daniil Laptev, Gleb Gerasimov, Nikita Balagansky, Daniil Gavrilov
cs.AI

Аннотация

Разреженные автоэнкодеры (Sparse Autoencoders, SAE) стали мощным инструментом для интерпретации внутренних представлений больших языковых моделей (Large Language Models, LLM), однако они часто не способны улавливать специфические для домена признаки, которые не преобладают в их обучающих корпусах. В данной работе представлен подход, основанный на остаточном обучении, который устраняет эту "слепоту" к признакам без необходимости полного переобучения. Мы предлагаем обучать вторичный SAE специально для моделирования ошибки реконструкции предварительно обученного SAE на текстах, специфичных для домена, что позволяет эффективно захватывать признаки, упущенные основной моделью. Суммируя выходы обеих моделей на этапе вывода, мы демонстрируем значительное улучшение как кросс-энтропии LLM, так и метрик объяснённой дисперсии в нескольких специализированных доменах. Наши эксперименты показывают, что этот метод эффективно интегрирует новые знания о домене в существующие SAE, сохраняя при этом их производительность на общих задачах. Такой подход позволяет исследователям избирательно повышать интерпретируемость SAE для конкретных интересующих доменов, открывая новые возможности для целенаправленной механистической интерпретируемости LLM.
English
Sparse Autoencoders have emerged as powerful tools for interpreting the internal representations of Large Language Models, yet they often fail to capture domain-specific features not prevalent in their training corpora. This paper introduces a residual learning approach that addresses this feature blindness without requiring complete retraining. We propose training a secondary SAE specifically to model the reconstruction error of a pretrained SAE on domain-specific texts, effectively capturing features missed by the primary model. By summing the outputs of both models during inference, we demonstrate significant improvements in both LLM cross-entropy and explained variance metrics across multiple specialized domains. Our experiments show that this method efficiently incorporates new domain knowledge into existing SAEs while maintaining their performance on general tasks. This approach enables researchers to selectively enhance SAE interpretability for specific domains of interest, opening new possibilities for targeted mechanistic interpretability of LLMs.
PDF51July 18, 2025