О надежности генеративных базовых моделей: руководство, оценка и перспективы
On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective
February 20, 2025
Авторы: Yue Huang, Chujie Gao, Siyuan Wu, Haoran Wang, Xiangqi Wang, Yujun Zhou, Yanbo Wang, Jiayi Ye, Jiawen Shi, Qihui Zhang, Yuan Li, Han Bao, Zhaoyi Liu, Tianrui Guan, Dongping Chen, Ruoxi Chen, Kehan Guo, Andy Zou, Bryan Hooi Kuen-Yew, Caiming Xiong, Elias Stengel-Eskin, Hongyang Zhang, Hongzhi Yin, Huan Zhang, Huaxiu Yao, Jaehong Yoon, Jieyu Zhang, Kai Shu, Kaijie Zhu, Ranjay Krishna, Swabha Swayamdipta, Taiwei Shi, Weijia Shi, Xiang Li, Yiwei Li, Yuexing Hao, Yuexing Hao, Zhihao Jia, Zhize Li, Xiuying Chen, Zhengzhong Tu, Xiyang Hu, Tianyi Zhou, Jieyu Zhao, Lichao Sun, Furong Huang, Or Cohen Sasson, Prasanna Sattigeri, Anka Reuel, Max Lamparth, Yue Zhao, Nouha Dziri, Yu Su, Huan Sun, Heng Ji, Chaowei Xiao, Mohit Bansal, Nitesh V. Chawla, Jian Pei, Jianfeng Gao, Michael Backes, Philip S. Yu, Neil Zhenqiang Gong, Pin-Yu Chen, Bo Li, Xiangliang Zhang
cs.AI
Аннотация
Генеративные базовые модели (GenFMs) стали революционным инструментом. Однако их широкое внедрение вызывает серьезные опасения в отношении доверия по различным аспектам. В данной статье представлена комплексная структура для решения этих проблем через три ключевых вклада. Во-первых, мы систематически анализируем глобальные законы и политики в области регулирования ИИ, разработанные правительствами и регулирующими органами, а также отраслевые практики и стандарты. На основе этого анализа мы предлагаем набор руководящих принципов для GenFMs, разработанных в ходе обширного междисциплинарного сотрудничества, объединяющего технические, этические, юридические и социальные перспективы. Во-вторых, мы представляем TrustGen — первую динамическую платформу для бенчмаркинга, предназначенную для оценки доверия по множеству аспектов и типов моделей, включая текстово-изобразительные, крупные языковые и визуально-языковые модели. TrustGen использует модульные компоненты — курацию метаданных, генерацию тестовых случаев и контекстуальные вариации — для обеспечения адаптивных и итеративных оценок, преодолевая ограничения статических методов оценки. С помощью TrustGen мы демонстрируем значительный прогресс в области доверия, одновременно выявляя сохраняющиеся проблемы. Наконец, мы предоставляем углубленное обсуждение вызовов и будущих направлений для создания доверенных GenFMs, раскрывая сложную и развивающуюся природу доверия, подчеркивая тонкие компромиссы между полезностью и доверием, а также учитывая различные приложения, выявляя сохраняющиеся проблемы и предлагая стратегическую дорожную карту для будущих исследований. Эта работа устанавливает целостную структуру для продвижения доверия в генеративном ИИ, прокладывая путь для более безопасной и ответственной интеграции GenFMs в критически важные приложения. Для содействия прогрессу в сообществе мы выпускаем инструментарий для динамической оценки.
English
Generative Foundation Models (GenFMs) have emerged as transformative tools.
However, their widespread adoption raises critical concerns regarding
trustworthiness across dimensions. This paper presents a comprehensive
framework to address these challenges through three key contributions. First,
we systematically review global AI governance laws and policies from
governments and regulatory bodies, as well as industry practices and standards.
Based on this analysis, we propose a set of guiding principles for GenFMs,
developed through extensive multidisciplinary collaboration that integrates
technical, ethical, legal, and societal perspectives. Second, we introduce
TrustGen, the first dynamic benchmarking platform designed to evaluate
trustworthiness across multiple dimensions and model types, including
text-to-image, large language, and vision-language models. TrustGen leverages
modular components--metadata curation, test case generation, and contextual
variation--to enable adaptive and iterative assessments, overcoming the
limitations of static evaluation methods. Using TrustGen, we reveal significant
progress in trustworthiness while identifying persistent challenges. Finally,
we provide an in-depth discussion of the challenges and future directions for
trustworthy GenFMs, which reveals the complex, evolving nature of
trustworthiness, highlighting the nuanced trade-offs between utility and
trustworthiness, and consideration for various downstream applications,
identifying persistent challenges and providing a strategic roadmap for future
research. This work establishes a holistic framework for advancing
trustworthiness in GenAI, paving the way for safer and more responsible
integration of GenFMs into critical applications. To facilitate advancement in
the community, we release the toolkit for dynamic evaluation.Summary
AI-Generated Summary