ChatPaper.aiChatPaper

Hackphyr: Um Agente LLM Local Ajustado para Ambientes de Segurança de Rede

Hackphyr: A Local Fine-Tuned LLM Agent for Network Security Environments

September 17, 2024
Autores: Maria Rigaki, Carlos Catania, Sebastian Garcia
cs.AI

Resumo

Os Modelos de Linguagem de Grande Escala (LLMs) têm mostrado um potencial notável em vários domínios, incluindo cibersegurança. O uso de LLMs comerciais baseados em nuvem pode ser indesejável devido a preocupações com privacidade, custos e restrições de conectividade de rede. Neste artigo, apresentamos o Hackphyr, um LLM localmente ajustado fino para ser usado como um agente de equipe vermelha em ambientes de segurança de rede. Nosso modelo de 7 bilhões de parâmetros ajustado fino pode ser executado em um único cartão GPU e alcança desempenho comparável a modelos comerciais muito maiores e mais poderosos, como o GPT-4. O Hackphyr supera claramente outros modelos, incluindo o GPT-3.5-turbo, e baselines, como agentes Q-learning em cenários complexos e previamente não vistos. Para alcançar esse desempenho, geramos um novo conjunto de dados de cibersegurança específico da tarefa para aprimorar as capacidades do modelo base. Por fim, realizamos uma análise abrangente dos comportamentos dos agentes que fornece insights sobre as habilidades de planejamento e possíveis deficiências desses agentes, contribuindo para uma compreensão mais ampla de agentes baseados em LLM em contextos de cibersegurança.
English
Large Language Models (LLMs) have shown remarkable potential across various domains, including cybersecurity. Using commercial cloud-based LLMs may be undesirable due to privacy concerns, costs, and network connectivity constraints. In this paper, we present Hackphyr, a locally fine-tuned LLM to be used as a red-team agent within network security environments. Our fine-tuned 7 billion parameter model can run on a single GPU card and achieves performance comparable with much larger and more powerful commercial models such as GPT-4. Hackphyr clearly outperforms other models, including GPT-3.5-turbo, and baselines, such as Q-learning agents in complex, previously unseen scenarios. To achieve this performance, we generated a new task-specific cybersecurity dataset to enhance the base model's capabilities. Finally, we conducted a comprehensive analysis of the agents' behaviors that provides insights into the planning abilities and potential shortcomings of such agents, contributing to the broader understanding of LLM-based agents in cybersecurity contexts

Summary

AI-Generated Summary

PDF82November 16, 2024