ChatPaper.aiChatPaper

SafeRoute: Selezione Adattiva del Modello per Barriere di Sicurezza Efficienti e Accurate nei Modelli Linguistici di Grande Scala

SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models

February 18, 2025
Autori: Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
cs.AI

Abstract

L'implementazione di grandi modelli linguistici (LLMs) in applicazioni reali richiede modelli di sicurezza robusti per rilevare e bloccare prompt utente dannosi. Sebbene i grandi modelli di sicurezza raggiungano prestazioni elevate, il loro costo computazionale è significativo. Per mitigare questo problema, vengono utilizzati modelli più piccoli e distillati, che tuttavia spesso hanno prestazioni inferiori sugli esempi "difficili" in cui il modello più grande fornisce previsioni accurate. Osserviamo che molti input possono essere gestiti in modo affidabile dal modello più piccolo, mentre solo una piccola frazione richiede la capacità del modello più grande. Motivati da ciò, proponiamo SafeRoute, un router binario che distingue gli esempi difficili da quelli facili. Il nostro metodo applica selettivamente il modello di sicurezza più grande ai dati che il router considera difficili, migliorando l'efficienza mantenendo l'accuratezza rispetto all'uso esclusivo del modello di sicurezza più grande. I risultati sperimentali su più dataset di benchmark dimostrano che la nostra selezione adattiva del modello migliora significativamente il compromesso tra costo computazionale e prestazioni di sicurezza, superando i baseline rilevanti.
English
Deploying large language models (LLMs) in real-world applications requires robust safety guard models to detect and block harmful user prompts. While large safety guard models achieve strong performance, their computational cost is substantial. To mitigate this, smaller distilled models are used, but they often underperform on "hard" examples where the larger model provides accurate predictions. We observe that many inputs can be reliably handled by the smaller model, while only a small fraction require the larger model's capacity. Motivated by this, we propose SafeRoute, a binary router that distinguishes hard examples from easy ones. Our method selectively applies the larger safety guard model to the data that the router considers hard, improving efficiency while maintaining accuracy compared to solely using the larger safety guard model. Experimental results on multiple benchmark datasets demonstrate that our adaptive model selection significantly enhances the trade-off between computational cost and safety performance, outperforming relevant baselines.

Summary

AI-Generated Summary

PDF282February 19, 2025