ChatPaper.aiChatPaper

Измерение надежности мультимодальных крупных языковых моделей: комплексное исследование

Benchmarking Trustworthiness of Multimodal Large Language Models: A Comprehensive Study

June 11, 2024
Авторы: Yichi Zhang, Yao Huang, Yitong Sun, Chang Liu, Zhe Zhao, Zhengwei Fang, Yifan Wang, Huanran Chen, Xiao Yang, Xingxing Wei, Hang Su, Yinpeng Dong, Jun Zhu
cs.AI

Аннотация

Несмотря на превосходные возможности Многомодальных Больших Языковых Моделей (MLLMs) в различных задачах, они все еще сталкиваются с существенными проблемами доверия. Однако текущая литература по оценке доверия MLLMs остается ограниченной, лишенной комплексной оценки, способной предложить глубокие исследования для будущих улучшений. В данной работе мы создаем MultiTrust, первый всесторонний и объединенный бенчмарк по доверию к MLLMs в пять основных аспектов: правдивость, безопасность, устойчивость, справедливость и конфиденциальность. Наш бенчмарк использует стратегию строгой оценки, которая учитывает как многомодальные риски, так и перекрестные воздействия, охватывая 32 разнообразные задачи с самостоятельно составленными наборами данных. Обширные эксперименты с 21 современными MLLMs раскрывают некоторые ранее не исследованные проблемы доверия и риски, подчеркивая сложности, вносимые многомодальностью, и указывая на необходимость развития передовых методологий для повышения их надежности. Например, типичные собственные модели все еще испытывают трудности с восприятием визуально запутанных изображений и уязвимы к многомодальному обходу защиты и атакам злоумышленников; MLLMs более склонны к разглашению конфиденциальной информации в тексте и раскрывают идеологические и культурные предвзятости даже при сопоставлении с несвязанными изображениями в выводе, что указывает на то, что многомодальность усиливает внутренние риски от базовых LLMs. Кроме того, мы представляем масштабный инструментарий для стандартизированных исследований доверия, с целью облегчить будущие прогрессивные достижения в этой важной области. Код и ресурсы доступны публично по адресу: https://multi-trust.github.io/.
English
Despite the superior capabilities of Multimodal Large Language Models (MLLMs) across diverse tasks, they still face significant trustworthiness challenges. Yet, current literature on the assessment of trustworthy MLLMs remains limited, lacking a holistic evaluation to offer thorough insights into future improvements. In this work, we establish MultiTrust, the first comprehensive and unified benchmark on the trustworthiness of MLLMs across five primary aspects: truthfulness, safety, robustness, fairness, and privacy. Our benchmark employs a rigorous evaluation strategy that addresses both multimodal risks and cross-modal impacts, encompassing 32 diverse tasks with self-curated datasets. Extensive experiments with 21 modern MLLMs reveal some previously unexplored trustworthiness issues and risks, highlighting the complexities introduced by the multimodality and underscoring the necessity for advanced methodologies to enhance their reliability. For instance, typical proprietary models still struggle with the perception of visually confusing images and are vulnerable to multimodal jailbreaking and adversarial attacks; MLLMs are more inclined to disclose privacy in text and reveal ideological and cultural biases even when paired with irrelevant images in inference, indicating that the multimodality amplifies the internal risks from base LLMs. Additionally, we release a scalable toolbox for standardized trustworthiness research, aiming to facilitate future advancements in this important field. Code and resources are publicly available at: https://multi-trust.github.io/.

Summary

AI-Generated Summary

PDF174November 28, 2024