ChatPaper.aiChatPaper

SafeRoute: Seleção Adaptativa de Modelos para Barreiras de Segurança Eficientes e Precisas em Modelos de Linguagem de Grande Escala

SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models

February 18, 2025
Autores: Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
cs.AI

Resumo

A implantação de grandes modelos de linguagem (LLMs) em aplicações do mundo real requer modelos de segurança robustos para detectar e bloquear solicitações de usuários prejudiciais. Embora grandes modelos de segurança alcancem um desempenho forte, seu custo computacional é substancial. Para mitigar isso, modelos menores e destilados são utilizados, mas eles frequentemente têm desempenho inferior em exemplos "difíceis", onde o modelo maior fornece previsões precisas. Observamos que muitas entradas podem ser tratadas de forma confiável pelo modelo menor, enquanto apenas uma pequena fração requer a capacidade do modelo maior. Motivados por isso, propomos o SafeRoute, um roteador binário que distingue exemplos difíceis dos fáceis. Nosso método aplica seletivamente o modelo de segurança maior aos dados que o roteador considera difíceis, melhorando a eficiência enquanto mantém a precisão em comparação com o uso exclusivo do modelo de segurança maior. Resultados experimentais em múltiplos conjuntos de dados de referência demonstram que nossa seleção adaptativa de modelos melhora significativamente a relação entre custo computacional e desempenho de segurança, superando as linhas de base relevantes.
English
Deploying large language models (LLMs) in real-world applications requires robust safety guard models to detect and block harmful user prompts. While large safety guard models achieve strong performance, their computational cost is substantial. To mitigate this, smaller distilled models are used, but they often underperform on "hard" examples where the larger model provides accurate predictions. We observe that many inputs can be reliably handled by the smaller model, while only a small fraction require the larger model's capacity. Motivated by this, we propose SafeRoute, a binary router that distinguishes hard examples from easy ones. Our method selectively applies the larger safety guard model to the data that the router considers hard, improving efficiency while maintaining accuracy compared to solely using the larger safety guard model. Experimental results on multiple benchmark datasets demonstrate that our adaptive model selection significantly enhances the trade-off between computational cost and safety performance, outperforming relevant baselines.

Summary

AI-Generated Summary

PDF282February 19, 2025