ChatPaper.aiChatPaper

SafeRoute: Adaptive Modellauswahl für effiziente und präzise Sicherheitsbarrieren in großen Sprachmodellen

SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models

February 18, 2025
Autoren: Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
cs.AI

Zusammenfassung

Der Einsatz großer Sprachmodelle (LLMs) in realen Anwendungen erfordert robuste Sicherheitsmodelle, um schädliche Benutzereingaben zu erkennen und zu blockieren. Während große Sicherheitsmodelle eine hohe Leistung erzielen, sind ihre Rechenkosten erheblich. Um dies zu mindern, werden kleinere destillierte Modelle verwendet, die jedoch oft bei „schwierigen“ Beispielen, bei denen das größere Modell genaue Vorhersagen liefert, schlechter abschneiden. Wir beobachten, dass viele Eingaben zuverlässig vom kleineren Modell verarbeitet werden können, während nur ein kleiner Anteil die Kapazität des größeren Modells erfordert. Ausgehend von dieser Beobachtung schlagen wir SafeRoute vor, einen binären Router, der schwierige von einfachen Beispielen unterscheidet. Unsere Methode wendet das größere Sicherheitsmodell selektiv auf die Daten an, die der Router als schwierig einstuft, und verbessert so die Effizienz bei gleichbleibender Genauigkeit im Vergleich zur alleinigen Verwendung des größeren Sicherheitsmodells. Experimentelle Ergebnisse auf mehreren Benchmark-Datensätzen zeigen, dass unsere adaptive Modellauswahl das Verhältnis zwischen Rechenkosten und Sicherheitsleistung signifikant verbessert und relevante Baselines übertrifft.
English
Deploying large language models (LLMs) in real-world applications requires robust safety guard models to detect and block harmful user prompts. While large safety guard models achieve strong performance, their computational cost is substantial. To mitigate this, smaller distilled models are used, but they often underperform on "hard" examples where the larger model provides accurate predictions. We observe that many inputs can be reliably handled by the smaller model, while only a small fraction require the larger model's capacity. Motivated by this, we propose SafeRoute, a binary router that distinguishes hard examples from easy ones. Our method selectively applies the larger safety guard model to the data that the router considers hard, improving efficiency while maintaining accuracy compared to solely using the larger safety guard model. Experimental results on multiple benchmark datasets demonstrate that our adaptive model selection significantly enhances the trade-off between computational cost and safety performance, outperforming relevant baselines.

Summary

AI-Generated Summary

PDF282February 19, 2025