ChatPaper.aiChatPaper

VLMGuard: Defendiendo Modelos de Lenguaje de Gran Vocabulario contra Estímulos Maliciosos a través de Datos No Etiquetados

VLMGuard: Defending VLMs against Malicious Prompts via Unlabeled Data

October 1, 2024
Autores: Xuefeng Du, Reshmi Ghosh, Robert Sim, Ahmed Salem, Vitor Carvalho, Emily Lawton, Yixuan Li, Jack W. Stokes
cs.AI

Resumen

Los modelos visión-lenguaje (VLMs) son esenciales para la comprensión contextual tanto de la información visual como textual. Sin embargo, su vulnerabilidad a entradas manipuladas de forma adversarial presenta riesgos significativos, lo que conlleva a resultados comprometidos y plantea preocupaciones sobre la fiabilidad en las aplicaciones integradas de VLM. Detectar estos estímulos maliciosos es crucial para mantener la confianza en las generaciones de VLM. Un desafío importante en el desarrollo de un clasificador de estímulos de protección es la falta de una gran cantidad de datos etiquetados como benignos y maliciosos. Para abordar el problema, presentamos VLMGuard, un nuevo marco de aprendizaje que aprovecha los estímulos de usuario no etiquetados en la naturaleza para la detección de estímulos maliciosos. Estos estímulos no etiquetados, que surgen naturalmente cuando los VLMs se despliegan en el mundo abierto, contienen información tanto benigna como maliciosa. Para aprovechar los datos no etiquetados, presentamos una puntuación automatizada de estimación de malicia para distinguir entre muestras benignas y maliciosas dentro de esta mezcla no etiquetada, lo que permite el entrenamiento de un clasificador binario de estímulos. Es importante destacar que nuestro marco no requiere anotaciones humanas adicionales, ofreciendo una gran flexibilidad y practicidad para aplicaciones del mundo real. Experimentos extensos muestran que VLMGuard logra resultados de detección superiores, superando significativamente a los métodos de vanguardia. Descargo de responsabilidad: Este documento puede contener ejemplos ofensivos; se recomienda discreción al lector.
English
Vision-language models (VLMs) are essential for contextual understanding of both visual and textual information. However, their vulnerability to adversarially manipulated inputs presents significant risks, leading to compromised outputs and raising concerns about the reliability in VLM-integrated applications. Detecting these malicious prompts is thus crucial for maintaining trust in VLM generations. A major challenge in developing a safeguarding prompt classifier is the lack of a large amount of labeled benign and malicious data. To address the issue, we introduce VLMGuard, a novel learning framework that leverages the unlabeled user prompts in the wild for malicious prompt detection. These unlabeled prompts, which naturally arise when VLMs are deployed in the open world, consist of both benign and malicious information. To harness the unlabeled data, we present an automated maliciousness estimation score for distinguishing between benign and malicious samples within this unlabeled mixture, thereby enabling the training of a binary prompt classifier on top. Notably, our framework does not require extra human annotations, offering strong flexibility and practicality for real-world applications. Extensive experiment shows VLMGuard achieves superior detection results, significantly outperforming state-of-the-art methods. Disclaimer: This paper may contain offensive examples; reader discretion is advised.

Summary

AI-Generated Summary

PDF52November 16, 2024