ChatPaper.aiChatPaper

CorrSteer : L'orientation améliore les performances et la sécurité des tâches dans les LLM grâce à la sélection de caractéristiques par autoencodeur parcimonieux basé sur la corrélation

CorrSteer: Steering Improves Task Performance and Safety in LLMs through Correlation-based Sparse Autoencoder Feature Selection

August 18, 2025
papers.authors: Seonglae Cho, Zekun Wu, Adriano Koshiyama
cs.AI

papers.abstract

Les autoencodeurs parcimonieux (SAE) peuvent extraire des caractéristiques interprétables des grands modèles de langage (LLM) sans supervision. Cependant, leur efficacité dans les tâches de pilotage en aval est limitée par la nécessité de jeux de données contrastifs ou d'un stockage important d'activations. Pour surmonter ces limitations, nous proposons CorrSteer, qui sélectionne les caractéristiques en corrélant la justesse des échantillons avec les activations des SAE à partir des tokens générés au moment de l'inférence. Cette approche utilise uniquement les activations d'inférence pour extraire des caractéristiques plus pertinentes, évitant ainsi les corrélations fallacieuses. Elle obtient également les coefficients de pilotage à partir des activations moyennes, automatisant ainsi l'ensemble du pipeline. Notre méthode montre une amélioration des performances sur des tâches de questions-réponses, de réduction des biais, de prévention des jailbreaks et de raisonnement sur les modèles Gemma 2 2B et LLaMA 3.1 8B, atteignant notamment une amélioration de +4,1 % sur MMLU et de +22,9 % sur HarmBench avec seulement 4000 échantillons. Les caractéristiques sélectionnées présentent des motifs sémantiquement significatifs alignés sur les exigences de chaque tâche, révélant les capacités sous-jacentes qui pilotent les performances. Notre travail établit la sélection basée sur la corrélation comme une approche efficace et scalable pour le pilotage automatisé des SAE dans les applications de modèles de langage.
English
Sparse Autoencoders (SAEs) can extract interpretable features from large language models (LLMs) without supervision. However, their effectiveness in downstream steering tasks is limited by the requirement for contrastive datasets or large activation storage. To address these limitations, we propose CorrSteer, which selects features by correlating sample correctness with SAE activations from generated tokens at inference time. This approach uses only inference-time activations to extract more relevant features, thereby avoiding spurious correlations. It also obtains steering coefficients from average activations, automating the entire pipeline. Our method shows improved task performance on QA, bias mitigation, jailbreaking prevention, and reasoning benchmarks on Gemma 2 2B and LLaMA 3.1 8B, notably achieving a +4.1% improvement in MMLU performance and a +22.9% improvement in HarmBench with only 4000 samples. Selected features demonstrate semantically meaningful patterns aligned with each task's requirements, revealing the underlying capabilities that drive performance. Our work establishes correlationbased selection as an effective and scalable approach for automated SAE steering across language model applications.
PDF21August 20, 2025