GoodVibe: Seguridad por Vibración para la Generación de Código Basada en LLM
GoodVibe: Security-by-Vibe for LLM-Based Code Generation
February 11, 2026
Autores: Maximilian Thang, Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami, Jona te Lintelo, Stjepan Picek, Ahmad-Reza Sadeghi
cs.AI
Resumen
Los modelos de lenguaje grandes (LLM) se utilizan cada vez más para la generación de código en flujos de trabajo de desarrollo rápidos e informales, a menudo denominados *vibe coding*, donde se prioriza la velocidad y la conveniencia, y rara vez se explicitan los requisitos de seguridad. En este contexto, los modelos producen con frecuencia código funcionalmente correcto pero inseguro, creando un riesgo de seguridad creciente. Los enfoques existentes para mejorar la seguridad del código se basan en el ajuste fino de todos los parámetros o en adaptaciones eficientes en parámetros, que son costosos y propensos al olvido catastrófico, o operan con una granularidad gruesa y ofrecen una capacidad de interpretación y control limitadas.
Presentamos GoodVibe, un marco a nivel neuronal para mejorar la seguridad de los modelos de lenguaje de código de forma predeterminada. GoodVibe se basa en la idea clave de que el razonamiento relevante para la seguridad se localiza en un pequeño subconjunto de neuronas. Identificamos estas neuronas utilizando atribuciones basadas en gradientes a partir de una tarea de seguridad supervisada y realizamos un ajuste fino neuronal-selectivo que actualiza únicamente este subespacio crítico para la seguridad. Para reducir aún más el coste de entrenamiento, introducimos la agrupación de neuronas basada en activaciones, lo que permite realizar actualizaciones estructuradas con una sobrecarga mínima. Evaluamos GoodVibe en seis LLM a través de lenguajes de programación críticos para la seguridad, incluyendo C++, Java, Swift y Go. GoodVibe mejora sustancialmente la seguridad del código generado mientras preserva la utilidad general del modelo, logrando una mejora de hasta 2.5x sobre los modelos base, igualando o superando al ajuste fino completo con más de 4,700x menos parámetros entrenables, y reduciendo el cómputo de entrenamiento en más de 3.6x en comparación con la línea base eficiente en parámetros (LoRA). Nuestros resultados demuestran que la optimización a nivel neuronal ofrece un enfoque efectivo y escalable para asegurar la generación de código sin sacrificar la eficiencia o la generalidad.
English
Large language models (LLMs) are increasingly used for code generation in fast, informal development workflows, often referred to as vibe coding, where speed and convenience are prioritized, and security requirements are rarely made explicit. In this setting, models frequently produce functionally correct but insecure code, creating a growing security risk. Existing approaches to improving code security rely on full-parameter fine-tuning or parameter-efficient adaptations, which are either costly and prone to catastrophic forgetting or operate at coarse granularity with limited interpretability and control.
We present GoodVibe, a neuron-level framework for improving the security of code language models by default. GoodVibe is based on the key insight that security-relevant reasoning is localized to a small subset of neurons. We identify these neurons using gradient-based attribution from a supervised security task and perform neuron-selective fine-tuning that updates only this security-critical subspace. To further reduce training cost, we introduce activation-driven neuron clustering, enabling structured updates with minimal overhead. We evaluate GoodVibe on six LLMs across security-critical programming languages, including C++, Java, Swift, and Go. GoodVibe substantially improves the security of generated code while preserving general model utility, achieving up to a 2.5x improvement over base models, matching or exceeding full fine-tuning with over 4,700x fewer trainable parameters, and reducing training computation by more than 3.6x compared to the parameter-efficient baseline (LoRA). Our results demonstrate that neuron-level optimization offers an effective and scalable approach to securing code generation without sacrificing efficiency or generality.