Informe Técnico de Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B
Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report
January 28, 2026
Autores: Zhuoran Yang, Ed Li, Jianliang He, Aman Priyanshu, Baturay Saglam, Paul Kassianik, Sajana Weerawardhena, Anu Vellore, Blaine Nelson, Neusha Javidnia, Arthur Goldblatt, Fraser Burch, Avi Zohary, Assaf Eisenman, Mahdi Sabbaghi, Supriti Vijay, Rahim Dharssi, Dhruv Kedia, Kojin Oshiba, Yaron Singer, Amin Karbasi
cs.AI
Resumen
Presentamos Foundation-Sec-8B-Reasoning, el primer modelo de razonamiento nativo de código abierto para ciberseguridad. Construido sobre nuestro modelo base Foundation-Sec-8B previamente publicado (derivado de Llama-3.1-8B-Base), el modelo se entrena mediante un proceso de dos etapas que combina el ajuste fino supervisado (SFT) y el aprendizaje por refuerzo a partir de recompensas verificables (RLVR). Nuestro entrenamiento aprovecha datos de razonamiento propietarios que abarcan análisis de ciberseguridad, seguimiento de instrucciones y razonamiento matemático. La evaluación en 10 puntos de referencia de ciberseguridad y 10 puntos de referencia de propósito general demuestra un rendimiento competitivo con modelos significativamente más grandes en tareas de ciberseguridad, manteniendo al mismo tiempo sólidas capacidades generales. El modelo muestra una generalización efectiva en tareas de razonamiento de múltiples pasos y un fuerte rendimiento en seguridad cuando se despliega con indicaciones de sistema y barreras de protección apropiadas. Este trabajo demuestra que los modelos de razonamiento especializados en un dominio pueden lograr un alto rendimiento en tareas especializadas manteniendo amplias capacidades generales. Publicamos el modelo en https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning.
English
We present Foundation-Sec-8B-Reasoning, the first open-source native reasoning model for cybersecurity. Built upon our previously released Foundation-Sec-8B base model (derived from Llama-3.1-8B-Base), the model is trained through a two-stage process combining supervised fine-tuning (SFT) and reinforcement learning from verifiable rewards (RLVR). Our training leverages proprietary reasoning data spanning cybersecurity analysis, instruction-following, and mathematical reasoning. Evaluation across 10 cybersecurity benchmarks and 10 general-purpose benchmarks demonstrates performance competitive with significantly larger models on cybersecurity tasks while maintaining strong general capabilities. The model shows effective generalization on multi-hop reasoning tasks and strong safety performance when deployed with appropriate system prompts and guardrails. This work demonstrates that domain-specialized reasoning models can achieve strong performance on specialized tasks while maintaining broad general capabilities. We release the model publicly at https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning.