AdvPrompter: Adaptación Rápida de Ataques Adversarios mediante Prompting para Modelos de Lenguaje GrandesAdvPrompter: Fast Adaptive Adversarial Prompting for LLMs
Si bien los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han logrado éxitos notables recientemente, son vulnerables a ciertos ataques de "jailbreaking" que resultan en la generación de contenido inapropiado o dañino. El red-teaming manual requiere encontrar indicaciones adversas que provoquen dicho jailbreaking, por ejemplo, añadiendo un sufijo a una instrucción dada, lo cual es ineficiente y consume mucho tiempo. Por otro lado, la generación automática de indicaciones adversas a menudo produce ataques semánticamente carentes de sentido que pueden ser detectados fácilmente por filtros basados en perplejidad, pueden requerir información de gradientes del TargetLLM, o no escalan bien debido a procesos de optimización discreta que consumen mucho tiempo en el espacio de tokens. En este artículo, presentamos un método novedoso que utiliza otro LLM, llamado AdvPrompter, para generar indicaciones adversas legibles por humanos en segundos, aproximadamente 800 veces más rápido que los enfoques basados en optimización existentes. Entrenamos el AdvPrompter utilizando un algoritmo novedoso que no requiere acceso a los gradientes del TargetLLM. Este proceso alterna entre dos pasos: (1) generar sufijos adversos de alta calidad optimizando las predicciones del AdvPrompter, y (2) ajuste fino de bajo rango del AdvPrompter con los sufijos adversos generados. El AdvPrompter entrenado genera sufijos que ocultan la instrucción de entrada sin cambiar su significado, de modo que el TargetLLM es engañado para dar una respuesta dañina. Los resultados experimentales en TargetLLMs de código abierto populares muestran resultados de vanguardia en el conjunto de datos AdvBench, que también se transfieren a APIs de LLMs de caja negra de código cerrado. Además, demostramos que al ajustar fino en un conjunto de datos sintéticos generado por AdvPrompter, los LLMs pueden volverse más robustos contra ataques de jailbreaking mientras mantienen su rendimiento, es decir, altas puntuaciones en MMLU.