Sull'affidabilità dei modelli generativi di base: Linee guida, valutazione e prospettive
On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective
February 20, 2025
Autori: Yue Huang, Chujie Gao, Siyuan Wu, Haoran Wang, Xiangqi Wang, Yujun Zhou, Yanbo Wang, Jiayi Ye, Jiawen Shi, Qihui Zhang, Yuan Li, Han Bao, Zhaoyi Liu, Tianrui Guan, Dongping Chen, Ruoxi Chen, Kehan Guo, Andy Zou, Bryan Hooi Kuen-Yew, Caiming Xiong, Elias Stengel-Eskin, Hongyang Zhang, Hongzhi Yin, Huan Zhang, Huaxiu Yao, Jaehong Yoon, Jieyu Zhang, Kai Shu, Kaijie Zhu, Ranjay Krishna, Swabha Swayamdipta, Taiwei Shi, Weijia Shi, Xiang Li, Yiwei Li, Yuexing Hao, Yuexing Hao, Zhihao Jia, Zhize Li, Xiuying Chen, Zhengzhong Tu, Xiyang Hu, Tianyi Zhou, Jieyu Zhao, Lichao Sun, Furong Huang, Or Cohen Sasson, Prasanna Sattigeri, Anka Reuel, Max Lamparth, Yue Zhao, Nouha Dziri, Yu Su, Huan Sun, Heng Ji, Chaowei Xiao, Mohit Bansal, Nitesh V. Chawla, Jian Pei, Jianfeng Gao, Michael Backes, Philip S. Yu, Neil Zhenqiang Gong, Pin-Yu Chen, Bo Li, Xiangliang Zhang
cs.AI
Abstract
I Modelli Fondamentali Generativi (GenFMs) sono emersi come strumenti trasformativi. Tuttavia, la loro ampia adozione solleva preoccupazioni critiche riguardo all'affidabilità su più dimensioni. Questo articolo presenta un quadro completo per affrontare queste sfide attraverso tre contributi chiave. In primo luogo, esaminiamo sistematicamente le leggi e le politiche globali di governance dell'IA da parte di governi e organismi di regolamentazione, nonché le pratiche e gli standard del settore. Sulla base di questa analisi, proponiamo un insieme di principi guida per i GenFMs, sviluppati attraverso un'ampia collaborazione multidisciplinare che integra prospettive tecniche, etiche, legali e sociali. In secondo luogo, introduciamo TrustGen, la prima piattaforma di benchmarking dinamica progettata per valutare l'affidabilità su più dimensioni e tipi di modelli, inclusi modelli testo-immagine, linguaggio su larga scala e visione-linguaggio. TrustGen sfrutta componenti modulari—curation dei metadati, generazione di casi di test e variazione contestuale—per consentire valutazioni adattive e iterative, superando i limiti dei metodi di valutazione statici. Utilizzando TrustGen, riveliamo progressi significativi nell'affidabilità mentre identifichiamo sfide persistenti. Infine, forniamo una discussione approfondita delle sfide e delle direzioni future per i GenFMs affidabili, che rivela la natura complessa ed evolutiva dell'affidabilità, evidenziando i compromessi sfumati tra utilità e affidabilità, e considerazioni per varie applicazioni a valle, identificando sfide persistenti e fornendo una roadmap strategica per la ricerca futura. Questo lavoro stabilisce un quadro olistico per promuovere l'affidabilità nella GenAI, aprendo la strada a un'integrazione più sicura e responsabile dei GenFMs in applicazioni critiche. Per facilitare il progresso nella comunità, rilasciamo il toolkit per la valutazione dinamica.
English
Generative Foundation Models (GenFMs) have emerged as transformative tools.
However, their widespread adoption raises critical concerns regarding
trustworthiness across dimensions. This paper presents a comprehensive
framework to address these challenges through three key contributions. First,
we systematically review global AI governance laws and policies from
governments and regulatory bodies, as well as industry practices and standards.
Based on this analysis, we propose a set of guiding principles for GenFMs,
developed through extensive multidisciplinary collaboration that integrates
technical, ethical, legal, and societal perspectives. Second, we introduce
TrustGen, the first dynamic benchmarking platform designed to evaluate
trustworthiness across multiple dimensions and model types, including
text-to-image, large language, and vision-language models. TrustGen leverages
modular components--metadata curation, test case generation, and contextual
variation--to enable adaptive and iterative assessments, overcoming the
limitations of static evaluation methods. Using TrustGen, we reveal significant
progress in trustworthiness while identifying persistent challenges. Finally,
we provide an in-depth discussion of the challenges and future directions for
trustworthy GenFMs, which reveals the complex, evolving nature of
trustworthiness, highlighting the nuanced trade-offs between utility and
trustworthiness, and consideration for various downstream applications,
identifying persistent challenges and providing a strategic roadmap for future
research. This work establishes a holistic framework for advancing
trustworthiness in GenAI, paving the way for safer and more responsible
integration of GenFMs into critical applications. To facilitate advancement in
the community, we release the toolkit for dynamic evaluation.Summary
AI-Generated Summary