GuardReasoner: Hacia Salvaguardas de LLM basadas en RazonamientoGuardReasoner: Towards Reasoning-based LLM Safeguards
A medida que los LLMs impactan cada vez más en aplicaciones críticas para la seguridad, garantizar su seguridad mediante el uso de barandillas sigue siendo un desafío clave. En este documento se propone GuardReasoner, una nueva salvaguarda para LLMs, guiando al modelo de protección para que aprenda a razonar. Concretamente, primero creamos el conjunto de datos GuardReasonerTrain, que consta de 127K muestras con 460K pasos detallados de razonamiento. Luego, introducimos SFT de razonamiento para desbloquear la capacidad de razonamiento de los modelos de protección. Además, presentamos DPO de muestras difíciles para fortalecer aún más su capacidad de razonamiento. De esta manera, GuardReasoner logra un mejor rendimiento, explicabilidad y generalización. Experimentos extensos y análisis en 13 benchmarks de 3 tareas de barandillas demuestran su superioridad. Notablemente, GuardReasoner 8B supera a GPT-4o+CoT en un 5.74% y a LLaMA Guard 3 8B en un 20.84% en puntuación F1 en promedio. Publicamos los datos de entrenamiento, el código y los modelos con diferentes escalas (1B, 3B, 8B) de GuardReasoner en: https://github.com/yueliu1999/GuardReasoner/.