ChatPaper.aiChatPaper

Entraîner des agents de modèles de langage à détecter des vulnérabilités avec CTF-Dojo

Training Language Model Agents to Find Vulnerabilities with CTF-Dojo

August 25, 2025
papers.authors: Terry Yue Zhuo, Dingmin Wang, Hantian Ding, Varun Kumar, Zijian Wang
cs.AI

papers.abstract

Les grands modèles de langage (LLM) ont démontré des capacités exceptionnelles lorsqu'ils sont entraînés dans des environnements d'exécution exécutables, excellant notamment dans les tâches d'ingénierie logicielle grâce à des boucles de rétroaction vérifiées. Cependant, les environnements d'exécution ancrés dans l'exécution, scalables et généralisables, restent rares, limitant les progrès dans l'entraînement d'agents d'apprentissage automatique plus performants. Nous présentons CTF-Dojo, le premier environnement d'exécution à grande échelle conçu pour entraîner des LLM avec une rétroaction vérifiable, comprenant 658 défis de type Capture-The-Flag (CTF) entièrement fonctionnels, conteneurisés dans Docker avec une reproductibilité garantie. Pour permettre une mise à l'échelle rapide sans intervention manuelle, nous avons développé CTF-Forge, un pipeline automatisé qui transforme des artefacts publics en environnements d'exécution prêts à l'emploi en quelques minutes, éliminant ainsi les semaines de configuration experte traditionnellement requises. Nous avons entraîné des agents basés sur LLM avec seulement 486 trajectoires de haute qualité et vérifiées par exécution provenant de CTF-Dojo, obtenant des gains absolus allant jusqu'à 11,6 % par rapport à des bases de référence solides sur trois benchmarks compétitifs : InterCode-CTF, NYU CTF Bench et Cybench. Notre modèle de 32B le plus performant atteint un taux de réussite de 31,9 % pour Pass@1, établissant un nouvel état de l'art en poids ouvert qui rivalise avec des modèles de pointe comme DeepSeek-V3-0324 et Gemini-2.5-Flash. En présentant les tâches de type CTF comme un benchmark pour l'apprentissage d'agents exécutables, CTF-Dojo démontre que les signaux d'entraînement ancrés dans l'exécution sont non seulement efficaces mais également essentiels pour faire progresser les agents d'apprentissage automatique performants sans dépendre de systèmes propriétaires coûteux.
English
Large language models (LLMs) have demonstrated exceptional capabilities when trained within executable runtime environments, notably excelling at software engineering tasks through verified feedback loops. Yet, scalable and generalizable execution-grounded environments remain scarce, limiting progress in training more capable ML agents. We introduce CTF-Dojo, the first large-scale executable runtime tailored for training LLMs with verifiable feedback, featuring 658 fully functional Capture-The-Flag (CTF)-style challenges containerized in Docker with guaranteed reproducibility. To enable rapid scaling without manual intervention, we develop CTF-Forge, an automated pipeline that transforms publicly available artifacts into ready-to-use execution environments in minutes, eliminating weeks of expert configuration traditionally required. We trained LLM-based agents on just 486 high-quality, execution-verified trajectories from CTF-Dojo, achieving up to 11.6% absolute gains over strong baselines across three competitive benchmarks: InterCode-CTF, NYU CTF Bench, and Cybench. Our best-performing 32B model reaches 31.9% Pass@1, establishing a new open-weight state-of-the-art that rivals frontier models like DeepSeek-V3-0324 and Gemini-2.5-Flash. By framing CTF-style tasks as a benchmark for executable-agent learning, CTF-Dojo demonstrates that execution-grounded training signals are not only effective but pivotal in advancing high-performance ML agents without dependence on costly proprietary systems.
PDF21August 27, 2025