ChatPaper.aiChatPaper

Aritmética de Seguridad: Un Marco para la Alineación de Seguridad en Tiempo de Prueba de Modelos de Lenguaje mediante la Dirección de Parámetros y Activaciones

Safety Arithmetic: A Framework for Test-time Safety Alignment of Language Models by Steering Parameters and Activations

June 17, 2024
Autores: Rima Hazra, Sayan Layek, Somnath Banerjee, Soujanya Poria
cs.AI

Resumen

Garantizar la alineación segura de los modelos de lenguaje de gran escala (LLMs) con los valores humanos es crucial a medida que se integran en aplicaciones como la traducción y la respuesta a preguntas. Los métodos actuales de alineación enfrentan dificultades con las intenciones dinámicas de los usuarios y los objetivos complejos, lo que hace que los modelos sean vulnerables a generar contenido dañino. Proponemos Aritmética de Seguridad, un marco que no requiere entrenamiento y que mejora la seguridad de los LLMs en diferentes escenarios: modelos base, modelos ajustados mediante supervisión (SFT) y modelos editados. La Aritmética de Seguridad incluye la Eliminación de Dirección Dañina para evitar contenido perjudicial y la Alineación de Seguridad para promover respuestas seguras. Además, presentamos NoIntentEdit, un conjunto de datos que destaca instancias de edición que podrían comprometer la seguridad del modelo si se utilizan de manera no intencional. Nuestros experimentos muestran que la Aritmética de Seguridad mejora significativamente las medidas de seguridad, reduce el exceso de precaución y mantiene la utilidad del modelo, superando a los métodos existentes en la generación segura de contenido.
English
Ensuring the safe alignment of large language models (LLMs) with human values is critical as they become integral to applications like translation and question answering. Current alignment methods struggle with dynamic user intentions and complex objectives, making models vulnerable to generating harmful content. We propose Safety Arithmetic, a training-free framework enhancing LLM safety across different scenarios: Base models, Supervised fine-tuned models (SFT), and Edited models. Safety Arithmetic involves Harm Direction Removal to avoid harmful content and Safety Alignment to promote safe responses. Additionally, we present NoIntentEdit, a dataset highlighting edit instances that could compromise model safety if used unintentionally. Our experiments show that Safety Arithmetic significantly improves safety measures, reduces over-safety, and maintains model utility, outperforming existing methods in ensuring safe content generation.

Summary

AI-Generated Summary

PDF164December 4, 2024