TRIDENT: Verbetering van de veiligheid van grote taalmodellen met driedimensionale gediversifieerde red-teaming datasynthese
TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis
May 30, 2025
Auteurs: Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) blinken uit in diverse natuurlijke taalverwerkingstaken, maar blijven kwetsbaar voor het genereren van schadelijke inhoud of het misbruikt worden voor kwaadaardige doeleinden. Hoewel veiligheidsuitlijningsdatasets zijn geïntroduceerd om dergelijke risico's te mitigeren door middel van supervised fine-tuning (SFT), bieden deze datasets vaak geen uitgebreide risicodekking. De meeste bestaande datasets richten zich voornamelijk op lexicale diversiteit, terwijl andere cruciale dimensies worden verwaarloosd. Om deze beperking aan te pakken, stellen we een nieuw analysekader voor om systematisch de risicodekking van uitlijningsdatasets te meten over drie essentiële dimensies: Lexicale Diversiteit, Kwaadaardige Intentie en Jailbreak-tactieken. We introduceren verder TRIDENT, een geautomatiseerde pijplijn die gebruikmaakt van persona-gebaseerde, zero-shot LLM-generatie om diverse en uitgebreide instructies te produceren die deze dimensies bestrijken. Elke schadelijke instructie wordt gekoppeld aan een ethisch uitgelijnd antwoord, wat resulteert in twee datasets: TRIDENT-Core, bestaande uit 26.311 voorbeelden, en TRIDENT-Edge, met 18.773 voorbeelden. Het fine-tunen van Llama 3.1-8B op TRIDENT-Edge toont aanzienlijke verbeteringen, met een gemiddelde reductie van 14,29% in de Harm Score en een afname van 20% in het aanvalssuccespercentage vergeleken met het best presterende baseline-model dat is gefinetuned op de WildBreak-dataset.
English
Large Language Models (LLMs) excel in various natural language processing
tasks but remain vulnerable to generating harmful content or being exploited
for malicious purposes. Although safety alignment datasets have been introduced
to mitigate such risks through supervised fine-tuning (SFT), these datasets
often lack comprehensive risk coverage. Most existing datasets focus primarily
on lexical diversity while neglecting other critical dimensions. To address
this limitation, we propose a novel analysis framework to systematically
measure the risk coverage of alignment datasets across three essential
dimensions: Lexical Diversity, Malicious Intent, and Jailbreak Tactics. We
further introduce TRIDENT, an automated pipeline that leverages persona-based,
zero-shot LLM generation to produce diverse and comprehensive instructions
spanning these dimensions. Each harmful instruction is paired with an ethically
aligned response, resulting in two datasets: TRIDENT-Core, comprising 26,311
examples, and TRIDENT-Edge, with 18,773 examples. Fine-tuning Llama 3.1-8B on
TRIDENT-Edge demonstrates substantial improvements, achieving an average 14.29%
reduction in Harm Score, and a 20% decrease in Attack Success Rate compared to
the best-performing baseline model fine-tuned on the WildBreak dataset.