ChatPaper.aiChatPaper

Bewertung der Vertrauenswürdigkeit von Multimodal großen Sprachmodellen: Eine umfassende Studie

Benchmarking Trustworthiness of Multimodal Large Language Models: A Comprehensive Study

June 11, 2024
Autoren: Yichi Zhang, Yao Huang, Yitong Sun, Chang Liu, Zhe Zhao, Zhengwei Fang, Yifan Wang, Huanran Chen, Xiao Yang, Xingxing Wei, Hang Su, Yinpeng Dong, Jun Zhu
cs.AI

Zusammenfassung

Trotz der überlegenen Fähigkeiten von Multimodalen Großen Sprachmodellen (MLLMs) in verschiedenen Aufgaben stehen sie immer noch vor erheblichen Vertrauensproblemen. Die aktuelle Literatur zur Bewertung vertrauenswürdiger MLLMs ist jedoch begrenzt und bietet keine ganzheitliche Bewertung, um umfassende Einblicke in zukünftige Verbesserungen zu bieten. In dieser Arbeit etablieren wir MultiTrust, den ersten umfassenden und einheitlichen Benchmark zur Vertrauenswürdigkeit von MLLMs in fünf Hauptaspekten: Wahrhaftigkeit, Sicherheit, Robustheit, Fairness und Datenschutz. Unser Benchmark verwendet eine strenge Evaluierungsstrategie, die sowohl multimodale Risiken als auch kreuzmodale Auswirkungen berücksichtigt und 32 verschiedene Aufgaben mit selbstkuratierten Datensätzen umfasst. Umfangreiche Experimente mit 21 modernen MLLMs zeigen einige zuvor unerforschte Vertrauensprobleme und Risiken auf, die die durch die Multimodalität eingeführten Komplexitäten hervorheben und die Notwendigkeit fortschrittlicher Methoden zur Verbesserung ihrer Zuverlässigkeit unterstreichen. Beispielsweise haben typische proprietäre Modelle immer noch Schwierigkeiten mit der Wahrnehmung visuell verwirrender Bilder und sind anfällig für multimodales Jailbreaking und adversarielle Angriffe; MLLMs neigen eher dazu, Datenschutz in Texten preiszugeben und ideologische und kulturelle Vorurteile offenzulegen, selbst wenn sie mit irrelevanten Bildern in der Inferenz kombiniert werden, was darauf hindeutet, dass die Multimodalität die internen Risiken von Basis-LLMs verstärkt. Darüber hinaus veröffentlichen wir ein skalierbares Toolkit für standardisierte Vertrauenswürdigkeitsforschung, um zukünftige Fortschritte in diesem wichtigen Bereich zu erleichtern. Code und Ressourcen sind öffentlich verfügbar unter: https://multi-trust.github.io/.
English
Despite the superior capabilities of Multimodal Large Language Models (MLLMs) across diverse tasks, they still face significant trustworthiness challenges. Yet, current literature on the assessment of trustworthy MLLMs remains limited, lacking a holistic evaluation to offer thorough insights into future improvements. In this work, we establish MultiTrust, the first comprehensive and unified benchmark on the trustworthiness of MLLMs across five primary aspects: truthfulness, safety, robustness, fairness, and privacy. Our benchmark employs a rigorous evaluation strategy that addresses both multimodal risks and cross-modal impacts, encompassing 32 diverse tasks with self-curated datasets. Extensive experiments with 21 modern MLLMs reveal some previously unexplored trustworthiness issues and risks, highlighting the complexities introduced by the multimodality and underscoring the necessity for advanced methodologies to enhance their reliability. For instance, typical proprietary models still struggle with the perception of visually confusing images and are vulnerable to multimodal jailbreaking and adversarial attacks; MLLMs are more inclined to disclose privacy in text and reveal ideological and cultural biases even when paired with irrelevant images in inference, indicating that the multimodality amplifies the internal risks from base LLMs. Additionally, we release a scalable toolbox for standardized trustworthiness research, aiming to facilitate future advancements in this important field. Code and resources are publicly available at: https://multi-trust.github.io/.

Summary

AI-Generated Summary

PDF174November 28, 2024