SafeRoute: Selezione Adattiva del Modello per Barriere di Sicurezza Efficienti e Accurate nei Modelli Linguistici di Grande Scala
SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models
February 18, 2025
Autori: Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
cs.AI
Abstract
L'implementazione di grandi modelli linguistici (LLMs) in applicazioni reali richiede modelli di sicurezza robusti per rilevare e bloccare prompt utente dannosi. Sebbene i grandi modelli di sicurezza raggiungano prestazioni elevate, il loro costo computazionale è significativo. Per mitigare questo problema, vengono utilizzati modelli più piccoli e distillati, che tuttavia spesso hanno prestazioni inferiori sugli esempi "difficili" in cui il modello più grande fornisce previsioni accurate. Osserviamo che molti input possono essere gestiti in modo affidabile dal modello più piccolo, mentre solo una piccola frazione richiede la capacità del modello più grande. Motivati da ciò, proponiamo SafeRoute, un router binario che distingue gli esempi difficili da quelli facili. Il nostro metodo applica selettivamente il modello di sicurezza più grande ai dati che il router considera difficili, migliorando l'efficienza mantenendo l'accuratezza rispetto all'uso esclusivo del modello di sicurezza più grande. I risultati sperimentali su più dataset di benchmark dimostrano che la nostra selezione adattiva del modello migliora significativamente il compromesso tra costo computazionale e prestazioni di sicurezza, superando i baseline rilevanti.
English
Deploying large language models (LLMs) in real-world applications requires
robust safety guard models to detect and block harmful user prompts. While
large safety guard models achieve strong performance, their computational cost
is substantial. To mitigate this, smaller distilled models are used, but they
often underperform on "hard" examples where the larger model provides accurate
predictions. We observe that many inputs can be reliably handled by the smaller
model, while only a small fraction require the larger model's capacity.
Motivated by this, we propose SafeRoute, a binary router that distinguishes
hard examples from easy ones. Our method selectively applies the larger safety
guard model to the data that the router considers hard, improving efficiency
while maintaining accuracy compared to solely using the larger safety guard
model. Experimental results on multiple benchmark datasets demonstrate that our
adaptive model selection significantly enhances the trade-off between
computational cost and safety performance, outperforming relevant baselines.Summary
AI-Generated Summary