ChatPaper.aiChatPaper

Sull'affidabilità dei modelli generativi di base: Linee guida, valutazione e prospettive

On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective

February 20, 2025
Autori: Yue Huang, Chujie Gao, Siyuan Wu, Haoran Wang, Xiangqi Wang, Yujun Zhou, Yanbo Wang, Jiayi Ye, Jiawen Shi, Qihui Zhang, Yuan Li, Han Bao, Zhaoyi Liu, Tianrui Guan, Dongping Chen, Ruoxi Chen, Kehan Guo, Andy Zou, Bryan Hooi Kuen-Yew, Caiming Xiong, Elias Stengel-Eskin, Hongyang Zhang, Hongzhi Yin, Huan Zhang, Huaxiu Yao, Jaehong Yoon, Jieyu Zhang, Kai Shu, Kaijie Zhu, Ranjay Krishna, Swabha Swayamdipta, Taiwei Shi, Weijia Shi, Xiang Li, Yiwei Li, Yuexing Hao, Yuexing Hao, Zhihao Jia, Zhize Li, Xiuying Chen, Zhengzhong Tu, Xiyang Hu, Tianyi Zhou, Jieyu Zhao, Lichao Sun, Furong Huang, Or Cohen Sasson, Prasanna Sattigeri, Anka Reuel, Max Lamparth, Yue Zhao, Nouha Dziri, Yu Su, Huan Sun, Heng Ji, Chaowei Xiao, Mohit Bansal, Nitesh V. Chawla, Jian Pei, Jianfeng Gao, Michael Backes, Philip S. Yu, Neil Zhenqiang Gong, Pin-Yu Chen, Bo Li, Xiangliang Zhang
cs.AI

Abstract

I Modelli Fondamentali Generativi (GenFMs) sono emersi come strumenti trasformativi. Tuttavia, la loro ampia adozione solleva preoccupazioni critiche riguardo all'affidabilità su più dimensioni. Questo articolo presenta un quadro completo per affrontare queste sfide attraverso tre contributi chiave. In primo luogo, esaminiamo sistematicamente le leggi e le politiche globali di governance dell'IA da parte di governi e organismi di regolamentazione, nonché le pratiche e gli standard del settore. Sulla base di questa analisi, proponiamo un insieme di principi guida per i GenFMs, sviluppati attraverso un'ampia collaborazione multidisciplinare che integra prospettive tecniche, etiche, legali e sociali. In secondo luogo, introduciamo TrustGen, la prima piattaforma di benchmarking dinamica progettata per valutare l'affidabilità su più dimensioni e tipi di modelli, inclusi modelli testo-immagine, linguaggio su larga scala e visione-linguaggio. TrustGen sfrutta componenti modulari—curation dei metadati, generazione di casi di test e variazione contestuale—per consentire valutazioni adattive e iterative, superando i limiti dei metodi di valutazione statici. Utilizzando TrustGen, riveliamo progressi significativi nell'affidabilità mentre identifichiamo sfide persistenti. Infine, forniamo una discussione approfondita delle sfide e delle direzioni future per i GenFMs affidabili, che rivela la natura complessa ed evolutiva dell'affidabilità, evidenziando i compromessi sfumati tra utilità e affidabilità, e considerazioni per varie applicazioni a valle, identificando sfide persistenti e fornendo una roadmap strategica per la ricerca futura. Questo lavoro stabilisce un quadro olistico per promuovere l'affidabilità nella GenAI, aprendo la strada a un'integrazione più sicura e responsabile dei GenFMs in applicazioni critiche. Per facilitare il progresso nella comunità, rilasciamo il toolkit per la valutazione dinamica.
English
Generative Foundation Models (GenFMs) have emerged as transformative tools. However, their widespread adoption raises critical concerns regarding trustworthiness across dimensions. This paper presents a comprehensive framework to address these challenges through three key contributions. First, we systematically review global AI governance laws and policies from governments and regulatory bodies, as well as industry practices and standards. Based on this analysis, we propose a set of guiding principles for GenFMs, developed through extensive multidisciplinary collaboration that integrates technical, ethical, legal, and societal perspectives. Second, we introduce TrustGen, the first dynamic benchmarking platform designed to evaluate trustworthiness across multiple dimensions and model types, including text-to-image, large language, and vision-language models. TrustGen leverages modular components--metadata curation, test case generation, and contextual variation--to enable adaptive and iterative assessments, overcoming the limitations of static evaluation methods. Using TrustGen, we reveal significant progress in trustworthiness while identifying persistent challenges. Finally, we provide an in-depth discussion of the challenges and future directions for trustworthy GenFMs, which reveals the complex, evolving nature of trustworthiness, highlighting the nuanced trade-offs between utility and trustworthiness, and consideration for various downstream applications, identifying persistent challenges and providing a strategic roadmap for future research. This work establishes a holistic framework for advancing trustworthiness in GenAI, paving the way for safer and more responsible integration of GenFMs into critical applications. To facilitate advancement in the community, we release the toolkit for dynamic evaluation.

Summary

AI-Generated Summary

PDF462February 21, 2025