ChatPaper.aiChatPaper

Hackphyr: Een lokaal fijnafgestemde LLM-agent voor netwerkbeveiligingsomgevingen

Hackphyr: A Local Fine-Tuned LLM Agent for Network Security Environments

September 17, 2024
Auteurs: Maria Rigaki, Carlos Catania, Sebastian Garcia
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) hebben opmerkelijk potentieel laten zien in verschillende domeinen, waaronder cybersecurity. Het gebruik van commerciële cloudgebaseerde LLM's kan ongewenst zijn vanwege privacyzorgen, kosten en netwerkconnectiviteitsbeperkingen. In dit artikel presenteren we Hackphyr, een lokaal fijnafgestemd LLM dat gebruikt kan worden als een red-team agent binnen netwerkbeveiligingsomgevingen. Ons fijnafgestemde model met 7 miljard parameters kan draaien op een enkele GPU-kaart en behaalt prestaties die vergelijkbaar zijn met veel grotere en krachtigere commerciële modellen zoals GPT-4. Hackphyr presteert duidelijk beter dan andere modellen, waaronder GPT-3.5-turbo, en baselines zoals Q-learning agents in complexe, eerder ongeziene scenario's. Om deze prestaties te behalen, hebben we een nieuw taakspecifiek cybersecurity dataset gegenereerd om de mogelijkheden van het basismodel te verbeteren. Tot slot hebben we een uitgebreide analyse uitgevoerd van het gedrag van de agents die inzichten biedt in de planningsmogelijkheden en potentiële tekortkomingen van dergelijke agents, wat bijdraagt aan een breder begrip van op LLM's gebaseerde agents in cybersecurity-contexten.
English
Large Language Models (LLMs) have shown remarkable potential across various domains, including cybersecurity. Using commercial cloud-based LLMs may be undesirable due to privacy concerns, costs, and network connectivity constraints. In this paper, we present Hackphyr, a locally fine-tuned LLM to be used as a red-team agent within network security environments. Our fine-tuned 7 billion parameter model can run on a single GPU card and achieves performance comparable with much larger and more powerful commercial models such as GPT-4. Hackphyr clearly outperforms other models, including GPT-3.5-turbo, and baselines, such as Q-learning agents in complex, previously unseen scenarios. To achieve this performance, we generated a new task-specific cybersecurity dataset to enhance the base model's capabilities. Finally, we conducted a comprehensive analysis of the agents' behaviors that provides insights into the planning abilities and potential shortcomings of such agents, contributing to the broader understanding of LLM-based agents in cybersecurity contexts

Summary

AI-Generated Summary

PDF82November 16, 2024