ChatPaper.aiChatPaper

Evaluación de la confiabilidad de modelos de lenguaje multimodales de gran escala: un estudio exhaustivo

Benchmarking Trustworthiness of Multimodal Large Language Models: A Comprehensive Study

June 11, 2024
Autores: Yichi Zhang, Yao Huang, Yitong Sun, Chang Liu, Zhe Zhao, Zhengwei Fang, Yifan Wang, Huanran Chen, Xiao Yang, Xingxing Wei, Hang Su, Yinpeng Dong, Jun Zhu
cs.AI

Resumen

A pesar de las capacidades superiores de los Modelos de Lenguaje Multimodal Grande (MLLMs) en diversas tareas, aún enfrentan desafíos significativos de confiabilidad. Sin embargo, la literatura actual sobre la evaluación de MLLMs confiables sigue siendo limitada, careciendo de una evaluación holística que ofrezca ideas exhaustivas para futuras mejoras. En este trabajo, establecemos MultiTrust, el primer banco de pruebas integral y unificado sobre la confiabilidad de MLLMs en cinco aspectos principales: veracidad, seguridad, robustez, equidad y privacidad. Nuestro banco de pruebas emplea una estrategia de evaluación rigurosa que aborda tanto los riesgos multimodales como los impactos cruzados, abarcando 32 tareas diversas con conjuntos de datos auto-curados. Experimentos extensos con 21 MLLMs modernos revelan algunos problemas y riesgos de confiabilidad previamente no explorados, resaltando las complejidades introducidas por la multimodalidad y subrayando la necesidad de metodologías avanzadas para mejorar su confiabilidad. Por ejemplo, los modelos propietarios típicos aún tienen dificultades con la percepción de imágenes visualmente confusas y son vulnerables a ataques multimodales y de desbloqueo de seguridad; los MLLMs tienden más a revelar privacidad en texto y mostrar sesgos ideológicos y culturales incluso cuando se emparejan con imágenes irrelevantes en la inferencia, lo que indica que la multimodalidad amplifica los riesgos internos de los MLLMs base. Además, lanzamos un conjunto de herramientas escalable para la investigación estandarizada de confiabilidad, con el objetivo de facilitar futuros avances en este campo importante. El código y los recursos están disponibles públicamente en: https://multi-trust.github.io/.
English
Despite the superior capabilities of Multimodal Large Language Models (MLLMs) across diverse tasks, they still face significant trustworthiness challenges. Yet, current literature on the assessment of trustworthy MLLMs remains limited, lacking a holistic evaluation to offer thorough insights into future improvements. In this work, we establish MultiTrust, the first comprehensive and unified benchmark on the trustworthiness of MLLMs across five primary aspects: truthfulness, safety, robustness, fairness, and privacy. Our benchmark employs a rigorous evaluation strategy that addresses both multimodal risks and cross-modal impacts, encompassing 32 diverse tasks with self-curated datasets. Extensive experiments with 21 modern MLLMs reveal some previously unexplored trustworthiness issues and risks, highlighting the complexities introduced by the multimodality and underscoring the necessity for advanced methodologies to enhance their reliability. For instance, typical proprietary models still struggle with the perception of visually confusing images and are vulnerable to multimodal jailbreaking and adversarial attacks; MLLMs are more inclined to disclose privacy in text and reveal ideological and cultural biases even when paired with irrelevant images in inference, indicating that the multimodality amplifies the internal risks from base LLMs. Additionally, we release a scalable toolbox for standardized trustworthiness research, aiming to facilitate future advancements in this important field. Code and resources are publicly available at: https://multi-trust.github.io/.

Summary

AI-Generated Summary

PDF174November 28, 2024