ChatPaper.aiChatPaper

GuardReasoner: Hacia Salvaguardas de LLM basadas en Razonamiento

GuardReasoner: Towards Reasoning-based LLM Safeguards

January 30, 2025
Autores: Yue Liu, Hongcheng Gao, Shengfang Zhai, Jun Xia, Tianyi Wu, Zhiwei Xue, Yulin Chen, Kenji Kawaguchi, Jiaheng Zhang, Bryan Hooi
cs.AI

Resumen

A medida que los LLMs impactan cada vez más en aplicaciones críticas para la seguridad, garantizar su seguridad mediante el uso de barandillas sigue siendo un desafío clave. En este documento se propone GuardReasoner, una nueva salvaguarda para LLMs, guiando al modelo de protección para que aprenda a razonar. Concretamente, primero creamos el conjunto de datos GuardReasonerTrain, que consta de 127K muestras con 460K pasos detallados de razonamiento. Luego, introducimos SFT de razonamiento para desbloquear la capacidad de razonamiento de los modelos de protección. Además, presentamos DPO de muestras difíciles para fortalecer aún más su capacidad de razonamiento. De esta manera, GuardReasoner logra un mejor rendimiento, explicabilidad y generalización. Experimentos extensos y análisis en 13 benchmarks de 3 tareas de barandillas demuestran su superioridad. Notablemente, GuardReasoner 8B supera a GPT-4o+CoT en un 5.74% y a LLaMA Guard 3 8B en un 20.84% en puntuación F1 en promedio. Publicamos los datos de entrenamiento, el código y los modelos con diferentes escalas (1B, 3B, 8B) de GuardReasoner en: https://github.com/yueliu1999/GuardReasoner/.
English
As LLMs increasingly impact safety-critical applications, ensuring their safety using guardrails remains a key challenge. This paper proposes GuardReasoner, a new safeguard for LLMs, by guiding the guard model to learn to reason. Concretely, we first create the GuardReasonerTrain dataset, which consists of 127K samples with 460K detailed reasoning steps. Then, we introduce reasoning SFT to unlock the reasoning capability of guard models. In addition, we present hard sample DPO to further strengthen their reasoning ability. In this manner, GuardReasoner achieves better performance, explainability, and generalizability. Extensive experiments and analyses on 13 benchmarks of 3 guardrail tasks demonstrate its superiority. Remarkably, GuardReasoner 8B surpasses GPT-4o+CoT by 5.74% and LLaMA Guard 3 8B by 20.84% F1 score on average. We release the training data, code, and models with different scales (1B, 3B, 8B) of GuardReasoner : https://github.com/yueliu1999/GuardReasoner/.

Summary

AI-Generated Summary

PDF873January 31, 2025