GoodVibe : Sécurité par Vibration pour la Génération de Code basée sur les LLM
GoodVibe: Security-by-Vibe for LLM-Based Code Generation
February 11, 2026
papers.authors: Maximilian Thang, Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami, Jona te Lintelo, Stjepan Picek, Ahmad-Reza Sadeghi
cs.AI
papers.abstract
Les grands modèles de langage (LLM) sont de plus en plus utilisés pour la génération de code dans des workflows de développement rapides et informels, souvent qualifiés de « programmation à l'instinct » (vibe coding), où la vitesse et la commodité sont prioritaires, et où les exigences de sécurité sont rarement explicites. Dans ce contexte, les modèles produisent fréquemment du code fonctionnellement correct mais non sécurisé, créant un risque de sécurité croissant. Les approches existantes pour améliorer la sécurité du code reposent sur un fine-tuning complet des paramètres ou des adaptations paramétriquement efficaces, qui sont soit coûteuses et sujettes à l'oubli catastrophique, soit opèrent à une granularité grossière avec une interprétabilité et un contrôle limités.
Nous présentons GoodVibe, un cadre au niveau neuronal pour améliorer par défaut la sécurité des modèles de langage dédiés au code. GoodVibe repose sur l'idée fondamentale que le raisonnement lié à la sécurité est localisé dans un petit sous-ensemble de neurones. Nous identifions ces neurones en utilisant l'attribution par gradient à partir d'une tâche de sécurité supervisée et effectuons un fine-tuning neuronal sélectif qui ne met à jour que ce sous-espace critique pour la sécurité. Pour réduire davantage le coût d'entraînement, nous introduisons un regroupement de neurones piloté par l'activation, permettant des mises à jour structurées avec une surcharge minimale. Nous évaluons GoodVibe sur six LLM couvrant des langages de programmation critiques pour la sécurité, notamment C++, Java, Swift et Go. GoodVibe améliore considérablement la sécurité du code généré tout en préservant l'utilité générale du modèle, obtenant jusqu'à une amélioration de 2,5x par rapport aux modèles de base, égalant ou dépassant le fine-tuning complet avec plus de 4700x moins de paramètres entraînables, et réduisant le calcul d'entraînement de plus de 3,6x par rapport à la baseline paramétriquement efficace (LoRA). Nos résultats démontrent que l'optimisation au niveau neuronal offre une approche efficace et évolutive pour sécuriser la génération de code sans sacrifier l'efficacité ou la généralité.
English
Large language models (LLMs) are increasingly used for code generation in fast, informal development workflows, often referred to as vibe coding, where speed and convenience are prioritized, and security requirements are rarely made explicit. In this setting, models frequently produce functionally correct but insecure code, creating a growing security risk. Existing approaches to improving code security rely on full-parameter fine-tuning or parameter-efficient adaptations, which are either costly and prone to catastrophic forgetting or operate at coarse granularity with limited interpretability and control.
We present GoodVibe, a neuron-level framework for improving the security of code language models by default. GoodVibe is based on the key insight that security-relevant reasoning is localized to a small subset of neurons. We identify these neurons using gradient-based attribution from a supervised security task and perform neuron-selective fine-tuning that updates only this security-critical subspace. To further reduce training cost, we introduce activation-driven neuron clustering, enabling structured updates with minimal overhead. We evaluate GoodVibe on six LLMs across security-critical programming languages, including C++, Java, Swift, and Go. GoodVibe substantially improves the security of generated code while preserving general model utility, achieving up to a 2.5x improvement over base models, matching or exceeding full fine-tuning with over 4,700x fewer trainable parameters, and reducing training computation by more than 3.6x compared to the parameter-efficient baseline (LoRA). Our results demonstrate that neuron-level optimization offers an effective and scalable approach to securing code generation without sacrificing efficiency or generality.