ChatPaper.aiChatPaper

Объединение негативных токенов: Направление атаки на признаки на основе изображений

Negative Token Merging: Image-based Adversarial Feature Guidance

December 2, 2024
Авторы: Jaskirat Singh, Lindsey Li, Weijia Shi, Ranjay Krishna, Yejin Choi, Pang Wei Koh, Michael F. Cohen, Stephen Gould, Liang Zheng, Luke Zettlemoyer
cs.AI

Аннотация

Руководство по атакам на основе текста с использованием отрицательного подсказывания стало широко применяемым подходом для отталкивания выходных характеристик от нежелательных концепций. Хотя это полезно, выполнение атак на основе текста одними лишь текстовыми данными может быть недостаточным для улавливания сложных визуальных концепций и избегания нежелательных визуальных элементов, таких как защищенные авторским правом персонажи. В данной статье мы впервые исследуем альтернативную модальность в этом направлении, выполняя атаки напрямую с использованием визуальных характеристик из исходного изображения или других изображений в пакете. В частности, мы представляем метод объединения отрицательных токенов (NegToMe), простой, но эффективный подход без обучения, который осуществляет атаки путем выборочного отталкивания соответствующих семантических характеристик (между исходным и сгенерированным изображениями) во время процесса обратного диффузии. При использовании относительно других изображений в одном пакете мы наблюдаем, что NegToMe значительно увеличивает разнообразие выходных данных (расовое, гендерное, визуальное), не жертвуя качеством выходного изображения. Аналогично, при использовании относительно защищенного авторским правом актива NegToMe помогает уменьшить визуальную схожесть с защищенным контентом на 34.57%. NegToMe легок в реализации с помощью всего нескольких строк кода, требует лишь незначительно большего времени вывода (<4%) и обобщается на различные архитектуры диффузии, такие как Flux, которые не поддерживают использование отдельного отрицательного подсказывания. Код доступен по адресу https://negtome.github.io
English
Text-based adversarial guidance using a negative prompt has emerged as a widely adopted approach to push the output features away from undesired concepts. While useful, performing adversarial guidance using text alone can be insufficient to capture complex visual concepts and avoid undesired visual elements like copyrighted characters. In this paper, for the first time we explore an alternate modality in this direction by performing adversarial guidance directly using visual features from a reference image or other images in a batch. In particular, we introduce negative token merging (NegToMe), a simple but effective training-free approach which performs adversarial guidance by selectively pushing apart matching semantic features (between reference and output generation) during the reverse diffusion process. When used w.r.t. other images in the same batch, we observe that NegToMe significantly increases output diversity (racial, gender, visual) without sacrificing output image quality. Similarly, when used w.r.t. a reference copyrighted asset, NegToMe helps reduce visual similarity with copyrighted content by 34.57%. NegToMe is simple to implement using just few-lines of code, uses only marginally higher (<4%) inference times and generalizes to different diffusion architectures like Flux, which do not natively support the use of a separate negative prompt. Code is available at https://negtome.github.io

Summary

AI-Generated Summary

PDF236December 6, 2024