ChatPaper.aiChatPaper

VLMGuard: Verteidigung von VLMs gegen bösartige Eingaben mittels unbeschrifteter Daten

VLMGuard: Defending VLMs against Malicious Prompts via Unlabeled Data

October 1, 2024
Autoren: Xuefeng Du, Reshmi Ghosh, Robert Sim, Ahmed Salem, Vitor Carvalho, Emily Lawton, Yixuan Li, Jack W. Stokes
cs.AI

Zusammenfassung

Vision-Language-Modelle (VLMs) sind entscheidend für das kontextuelle Verständnis von visuellen und textuellen Informationen. Allerdings birgt ihre Anfälligkeit für adversarial manipulierte Eingaben erhebliche Risiken, die zu beeinträchtigten Ergebnissen führen und Bedenken hinsichtlich der Zuverlässigkeit von VLM-integrierten Anwendungen aufwerfen. Die Erkennung dieser bösartigen Eingaben ist daher entscheidend, um das Vertrauen in die VLM-Generierungen aufrechtzuerhalten. Eine große Herausforderung bei der Entwicklung eines Schutzpromptklassifizierers besteht in dem Mangel an einer großen Menge an gekennzeichneten gutartigen und bösartigen Daten. Um dieses Problem anzugehen, stellen wir VLMGuard vor, ein neuartiges Lernframework, das die nicht gekennzeichneten Benutzerprompts in freier Wildbahn zur bösartigen Prompterkennung nutzt. Diese nicht gekennzeichneten Prompts, die natürlich auftreten, wenn VLMs in der realen Welt eingesetzt werden, bestehen aus sowohl gutartigen als auch bösartigen Informationen. Um die nicht gekennzeichneten Daten zu nutzen, präsentieren wir einen automatisierten Schätzwert für die Bösartigkeit zur Unterscheidung zwischen gutartigen und bösartigen Proben innerhalb dieser nicht gekennzeichneten Mischung, wodurch das Training eines binären Promptklassifizierers ermöglicht wird. Bemerkenswert ist, dass unser Framework keine zusätzlichen menschlichen Annotationen erfordert und eine hohe Flexibilität und Praktikabilität für Anwendungen in der realen Welt bietet. Umfangreiche Experimente zeigen, dass VLMGuard überlegene Erkennungsergebnisse erzielt und deutlich besser abschneidet als aktuelle Methoden. Haftungsausschluss: Dieses Papier kann anstößige Beispiele enthalten; Leserinnen und Leser werden um Diskretion gebeten.
English
Vision-language models (VLMs) are essential for contextual understanding of both visual and textual information. However, their vulnerability to adversarially manipulated inputs presents significant risks, leading to compromised outputs and raising concerns about the reliability in VLM-integrated applications. Detecting these malicious prompts is thus crucial for maintaining trust in VLM generations. A major challenge in developing a safeguarding prompt classifier is the lack of a large amount of labeled benign and malicious data. To address the issue, we introduce VLMGuard, a novel learning framework that leverages the unlabeled user prompts in the wild for malicious prompt detection. These unlabeled prompts, which naturally arise when VLMs are deployed in the open world, consist of both benign and malicious information. To harness the unlabeled data, we present an automated maliciousness estimation score for distinguishing between benign and malicious samples within this unlabeled mixture, thereby enabling the training of a binary prompt classifier on top. Notably, our framework does not require extra human annotations, offering strong flexibility and practicality for real-world applications. Extensive experiment shows VLMGuard achieves superior detection results, significantly outperforming state-of-the-art methods. Disclaimer: This paper may contain offensive examples; reader discretion is advised.

Summary

AI-Generated Summary

PDF52November 16, 2024