TRIDENT: Aprimorando a Segurança de Modelos de Linguagem de Grande Escala com Síntese de Dados de Red-Teaming Tridimensional Diversificada
TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis
May 30, 2025
Autores: Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li
cs.AI
Resumo
Os Modelos de Linguagem de Grande Escala (LLMs) se destacam em diversas tarefas de processamento de linguagem natural, mas ainda são vulneráveis à geração de conteúdo prejudicial ou à exploração para fins maliciosos. Embora conjuntos de dados de alinhamento de segurança tenham sido introduzidos para mitigar esses riscos por meio de ajuste fino supervisionado (SFT), esses conjuntos de dados frequentemente carecem de cobertura abrangente de riscos. A maioria dos conjuntos de dados existentes se concentra principalmente na diversidade lexical, negligenciando outras dimensões críticas. Para abordar essa limitação, propomos uma nova estrutura de análise para medir sistematicamente a cobertura de risco dos conjuntos de dados de alinhamento em três dimensões essenciais: Diversidade Lexical, Intenção Maliciosa e Táticas de Jailbreak. Além disso, introduzimos o TRIDENT, um pipeline automatizado que aproveita a geração zero-shot baseada em persona de LLMs para produzir instruções diversas e abrangentes que abrangem essas dimensões. Cada instrução prejudicial é emparelhada com uma resposta alinhada eticamente, resultando em dois conjuntos de dados: TRIDENT-Core, composto por 26.311 exemplos, e TRIDENT-Edge, com 18.773 exemplos. O ajuste fino do Llama 3.1-8B no TRIDENT-Edge demonstra melhorias substanciais, alcançando uma redução média de 14,29% no Índice de Dano e uma diminuição de 20% na Taxa de Sucesso de Ataque em comparação com o modelo de linha de base de melhor desempenho ajustado no conjunto de dados WildBreak.
English
Large Language Models (LLMs) excel in various natural language processing
tasks but remain vulnerable to generating harmful content or being exploited
for malicious purposes. Although safety alignment datasets have been introduced
to mitigate such risks through supervised fine-tuning (SFT), these datasets
often lack comprehensive risk coverage. Most existing datasets focus primarily
on lexical diversity while neglecting other critical dimensions. To address
this limitation, we propose a novel analysis framework to systematically
measure the risk coverage of alignment datasets across three essential
dimensions: Lexical Diversity, Malicious Intent, and Jailbreak Tactics. We
further introduce TRIDENT, an automated pipeline that leverages persona-based,
zero-shot LLM generation to produce diverse and comprehensive instructions
spanning these dimensions. Each harmful instruction is paired with an ethically
aligned response, resulting in two datasets: TRIDENT-Core, comprising 26,311
examples, and TRIDENT-Edge, with 18,773 examples. Fine-tuning Llama 3.1-8B on
TRIDENT-Edge demonstrates substantial improvements, achieving an average 14.29%
reduction in Harm Score, and a 20% decrease in Attack Success Rate compared to
the best-performing baseline model fine-tuned on the WildBreak dataset.