Direcionamento Seletivo: Controle Preservador de Normas por Meio de Seleção Discriminativa de Camadas
Selective Steering: Norm-Preserving Control Through Discriminative Layer Selection
January 27, 2026
Autores: Quy-Anh Dang, Chris Ngo
cs.AI
Resumo
Apesar dos avanços significativos no alinhamento, os grandes modelos de linguagem (LLMs) permanecem vulneráveis a ataques adversariais que provocam comportamentos prejudiciais. As técnicas de direcionamento de ativação oferecem uma abordagem promissora de intervenção em tempo de inferência, mas os métodos existentes sofrem com limitações críticas: a adição de ativação requer um ajuste cuidadoso de coeficientes e é sensível a variações de norma específicas da camada, enquanto a ablação direcional oferece apenas controle binário. Trabalhos recentes sobre Direcionamento Angular introduzem controle contínuo por meio de rotação em um subespaço 2D, mas sua implementação prática viola a preservação da norma, causando deslocamento de distribuição e colapso na geração, particularmente em modelos com menos de 7B de parâmetros. Propomos o Direcionamento Seletivo, que aborda essas limitações por meio de duas inovações principais: (1) uma formulação de rotação matematicamente rigorosa e preservadora de norma que mantém a integridade da distribuição de ativações, e (2) uma seleção discriminativa de camadas que aplica o direcionamento apenas onde as representações de características exibem alinhamento de classe com sinais opostos. Experimentos em nove modelos demonstram que o Direcionamento Seletivo atinge taxas de sucesso de ataque 5,5 vezes superiores aos métodos anteriores, mantendo zero violações de perplexidade e aproximadamente 100% de retenção de capacidade em benchmarks padrão. Nossa abordagem fornece uma estrutura fundamentada e eficiente para modificação de comportamento de LLMs de forma controlável e estável. Código: https://github.com/knoveleng/steering
English
Despite significant progress in alignment, large language models (LLMs) remain vulnerable to adversarial attacks that elicit harmful behaviors. Activation steering techniques offer a promising inference-time intervention approach, but existing methods suffer from critical limitations: activation addition requires careful coefficient tuning and is sensitive to layer-specific norm variations, while directional ablation provides only binary control. Recent work on Angular Steering introduces continuous control via rotation in a 2D subspace, but its practical implementation violates norm preservation, causing distribution shift and generation collapse, particularly in models below 7B parameters. We propose Selective Steering, which addresses these limitations through two key innovations: (1) a mathematically rigorous norm-preserving rotation formulation that maintains activation distribution integrity, and (2) discriminative layer selection that applies steering only where feature representations exhibit opposite-signed class alignment. Experiments across nine models demonstrate that Selective Steering achieves 5.5x higher attack success rates than prior methods while maintaining zero perplexity violations and approximately 100\% capability retention on standard benchmarks. Our approach provides a principled, efficient framework for controllable and stable LLM behavior modification. Code: https://github.com/knoveleng/steering