ChatPaper.aiChatPaper

Hackphyr: ネットワークセキュリティ環境向けのローカルにファインチューニングされたLLMエージェント

Hackphyr: A Local Fine-Tuned LLM Agent for Network Security Environments

September 17, 2024
著者: Maria Rigaki, Carlos Catania, Sebastian Garcia
cs.AI

要旨

大規模言語モデル(LLMs)は、サイバーセキュリティを含むさまざまな領域で顕著な潜在能力を示しています。商用クラウドベースのLLMsを使用することは、プライバシー上の懸念やコスト、ネットワーク接続の制約から望ましくない場合があります。本論文では、ネットワークセキュリティ環境内でレッドチームエージェントとして使用するために、ローカルでファインチューニングされたLLMであるHackphyrを提案します。当社のファインチューニングされた70億パラメータモデルは、単一のGPUカードで実行でき、GPT-4などのはるかに大きくパワフルな商用モデルと同等のパフォーマンスを達成します。Hackphyrは、GPT-3.5-turboなどの他のモデルやQ学習エージェントなどのベースラインをはるかに上回る性能を発揮します。このパフォーマンスを達成するために、新しいタスク固有のサイバーセキュリティデータセットを生成して、ベースモデルの能力を向上させました。最後に、このようなエージェントの計画能力や潜在的な欠点に関する洞察を提供するエージェントの行動の包括的な分析を実施し、サイバーセキュリティコンテキストにおけるLLMベースのエージェントの広い理解に貢献しています。
English
Large Language Models (LLMs) have shown remarkable potential across various domains, including cybersecurity. Using commercial cloud-based LLMs may be undesirable due to privacy concerns, costs, and network connectivity constraints. In this paper, we present Hackphyr, a locally fine-tuned LLM to be used as a red-team agent within network security environments. Our fine-tuned 7 billion parameter model can run on a single GPU card and achieves performance comparable with much larger and more powerful commercial models such as GPT-4. Hackphyr clearly outperforms other models, including GPT-3.5-turbo, and baselines, such as Q-learning agents in complex, previously unseen scenarios. To achieve this performance, we generated a new task-specific cybersecurity dataset to enhance the base model's capabilities. Finally, we conducted a comprehensive analysis of the agents' behaviors that provides insights into the planning abilities and potential shortcomings of such agents, contributing to the broader understanding of LLM-based agents in cybersecurity contexts

Summary

AI-Generated Summary

PDF82November 16, 2024