ChatPaper.aiChatPaper

GoodVibe: Segurança por Vibração para Geração de Código Baseada em LLM

GoodVibe: Security-by-Vibe for LLM-Based Code Generation

February 11, 2026
Autores: Maximilian Thang, Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami, Jona te Lintelo, Stjepan Picek, Ahmad-Reza Sadeghi
cs.AI

Resumo

Os grandes modelos de linguagem (LLMs) são cada vez mais utilizados para geração de código em fluxos de trabalho de desenvolvimento rápidos e informais, frequentemente designados por *vibe coding*, onde a velocidade e a conveniência são priorizadas e os requisitos de segurança raramente são explicitados. Neste contexto, os modelos produzem frequentemente código funcionalmente correto, mas inseguro, criando um risco de segurança crescente. As abordagens existentes para melhorar a segurança do código baseiam-se no *fine-tuning* completo dos parâmetros ou em adaptações com eficiência de parâmetros, que são ou dispendiosas e propensas ao esquecimento catastrófico, ou operam com uma granularidade grossa, com interpretabilidade e controlo limitados. Apresentamos o GoodVibe, uma estrutura a nível neuronal para melhorar a segurança dos modelos de linguagem para código por padrão. O GoodVibe baseia-se na perceção fundamental de que o raciocínio relevante para a segurança está localizado num pequeno subconjunto de neurónios. Identificamos estes neurónios usando atribuição baseada em gradientes a partir de uma tarefa de segurança supervisionada e realizamos um *fine-tuning* neuronal seletivo que atualiza apenas este subespaço crítico para a segurança. Para reduzir ainda mais o custo de treino, introduzimos o agrupamento de neurónios orientado por ativação, permitindo atualizações estruturadas com sobrecarga mínima. Avaliamos o GoodVibe em seis LLMs abrangendo linguagens de programação críticas para a segurança, incluindo C++, Java, Swift e Go. O GoodVibe melhora substancialmente a segurança do código gerado, preservando a utilidade geral do modelo, alcançando uma melhoria até 2,5x em relação aos modelos base, equiparando ou excedendo o *fine-tuning* completo com mais de 4700x menos parâmetros treináveis e reduzindo a computação de treino em mais de 3,6x comparativamente à linha de base com eficiência de parâmetros (LoRA). Os nossos resultados demonstram que a otimização a nível neuronal oferece uma abordagem eficaz e escalável para garantir a segurança da geração de código sem sacrificar a eficiência ou a generalidade.
English
Large language models (LLMs) are increasingly used for code generation in fast, informal development workflows, often referred to as vibe coding, where speed and convenience are prioritized, and security requirements are rarely made explicit. In this setting, models frequently produce functionally correct but insecure code, creating a growing security risk. Existing approaches to improving code security rely on full-parameter fine-tuning or parameter-efficient adaptations, which are either costly and prone to catastrophic forgetting or operate at coarse granularity with limited interpretability and control. We present GoodVibe, a neuron-level framework for improving the security of code language models by default. GoodVibe is based on the key insight that security-relevant reasoning is localized to a small subset of neurons. We identify these neurons using gradient-based attribution from a supervised security task and perform neuron-selective fine-tuning that updates only this security-critical subspace. To further reduce training cost, we introduce activation-driven neuron clustering, enabling structured updates with minimal overhead. We evaluate GoodVibe on six LLMs across security-critical programming languages, including C++, Java, Swift, and Go. GoodVibe substantially improves the security of generated code while preserving general model utility, achieving up to a 2.5x improvement over base models, matching or exceeding full fine-tuning with over 4,700x fewer trainable parameters, and reducing training computation by more than 3.6x compared to the parameter-efficient baseline (LoRA). Our results demonstrate that neuron-level optimization offers an effective and scalable approach to securing code generation without sacrificing efficiency or generality.
PDF33March 10, 2026