ChatPaper.aiChatPaper

TRIDENT: Verbetering van de veiligheid van grote taalmodellen met driedimensionale gediversifieerde red-teaming datasynthese

TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis

May 30, 2025
Auteurs: Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) blinken uit in diverse natuurlijke taalverwerkingstaken, maar blijven kwetsbaar voor het genereren van schadelijke inhoud of het misbruikt worden voor kwaadaardige doeleinden. Hoewel veiligheidsuitlijningsdatasets zijn geïntroduceerd om dergelijke risico's te mitigeren door middel van supervised fine-tuning (SFT), bieden deze datasets vaak geen uitgebreide risicodekking. De meeste bestaande datasets richten zich voornamelijk op lexicale diversiteit, terwijl andere cruciale dimensies worden verwaarloosd. Om deze beperking aan te pakken, stellen we een nieuw analysekader voor om systematisch de risicodekking van uitlijningsdatasets te meten over drie essentiële dimensies: Lexicale Diversiteit, Kwaadaardige Intentie en Jailbreak-tactieken. We introduceren verder TRIDENT, een geautomatiseerde pijplijn die gebruikmaakt van persona-gebaseerde, zero-shot LLM-generatie om diverse en uitgebreide instructies te produceren die deze dimensies bestrijken. Elke schadelijke instructie wordt gekoppeld aan een ethisch uitgelijnd antwoord, wat resulteert in twee datasets: TRIDENT-Core, bestaande uit 26.311 voorbeelden, en TRIDENT-Edge, met 18.773 voorbeelden. Het fine-tunen van Llama 3.1-8B op TRIDENT-Edge toont aanzienlijke verbeteringen, met een gemiddelde reductie van 14,29% in de Harm Score en een afname van 20% in het aanvalssuccespercentage vergeleken met het best presterende baseline-model dat is gefinetuned op de WildBreak-dataset.
English
Large Language Models (LLMs) excel in various natural language processing tasks but remain vulnerable to generating harmful content or being exploited for malicious purposes. Although safety alignment datasets have been introduced to mitigate such risks through supervised fine-tuning (SFT), these datasets often lack comprehensive risk coverage. Most existing datasets focus primarily on lexical diversity while neglecting other critical dimensions. To address this limitation, we propose a novel analysis framework to systematically measure the risk coverage of alignment datasets across three essential dimensions: Lexical Diversity, Malicious Intent, and Jailbreak Tactics. We further introduce TRIDENT, an automated pipeline that leverages persona-based, zero-shot LLM generation to produce diverse and comprehensive instructions spanning these dimensions. Each harmful instruction is paired with an ethically aligned response, resulting in two datasets: TRIDENT-Core, comprising 26,311 examples, and TRIDENT-Edge, with 18,773 examples. Fine-tuning Llama 3.1-8B on TRIDENT-Edge demonstrates substantial improvements, achieving an average 14.29% reduction in Harm Score, and a 20% decrease in Attack Success Rate compared to the best-performing baseline model fine-tuned on the WildBreak dataset.
PDF32June 3, 2025