Une étude approfondie sur la sécurité complète des LLM (et agents LLM) : Données, entraînement et déploiement
A Comprehensive Survey in LLM(-Agent) Full Stack Safety: Data, Training and Deployment
April 22, 2025
Auteurs: Kun Wang, Guibin Zhang, Zhenhong Zhou, Jiahao Wu, Miao Yu, Shiqian Zhao, Chenlong Yin, Jinhu Fu, Yibo Yan, Hanjun Luo, Liang Lin, Zhihao Xu, Haolang Lu, Xinye Cao, Xinyun Zhou, Weifei Jin, Fanci Meng, Junyuan Mao, Hao Wu, Minghe Wang, Fan Zhang, Junfeng Fang, Chengwei Liu, Yifan Zhang, Qiankun Li, Chongye Guo, Yalan Qin, Yi Ding, Donghai Hong, Jiaming Ji, Xinfeng Li, Yifan Jiang, Dongxia Wang, Yihao Huang, Yufei Guo, Jen-tse Huang, Yanwei Yue, Wenke Huang, Guancheng Wan, Tianlin Li, Lei Bai, Jie Zhang, Qing Guo, Jingyi Wang, Tianlong Chen, Joey Tianyi Zhou, Xiaojun Jia, Weisong Sun, Cong Wu, Jing Chen, Xuming Hu, Yiming Li, Xiao Wang, Ningyu Zhang, Luu Anh Tuan, Guowen Xu, Tianwei Zhang, Xingjun Ma, Xiang Wang, Bo An, Jun Sun, Mohit Bansal, Shirui Pan, Yuval Elovici, Bhavya Kailkhura, Bo Li, Yaodong Yang, Hongwei Li, Wenyuan Xu, Yizhou Sun, Wei Wang, Qing Li, Ke Tang, Yu-Gang Jiang, Felix Juefei-Xu, Hui Xiong, Xiaofeng Wang, Shuicheng Yan, Dacheng Tao, Philip S. Yu, Qingsong Wen, Yang Liu
cs.AI
Résumé
Le succès remarquable des modèles de langage de grande taille (LLMs) a mis en lumière une voie prometteuse vers la réalisation de l'intelligence artificielle générale, tant pour les communautés académiques qu'industrielles, grâce à leurs performances sans précédent dans diverses applications. Alors que les LLMs continuent de gagner en importance dans les domaines de la recherche et du commerce, leurs implications en matière de sécurité et de sûreté sont devenues une préoccupation croissante, non seulement pour les chercheurs et les entreprises, mais aussi pour chaque nation. Actuellement, les études existantes sur la sécurité des LLMs se concentrent principalement sur des étapes spécifiques de leur cycle de vie, par exemple la phase de déploiement ou de fine-tuning, manquant ainsi une compréhension globale de l'ensemble de la "chaîne de vie" des LLMs. Pour combler cette lacune, cet article introduit, pour la première fois, le concept de sécurité "full-stack" afin de considérer systématiquement les problèmes de sécurité tout au long du processus complet de formation, de déploiement et de commercialisation des LLMs. Par rapport aux études de sécurité des LLMs disponibles sur le marché, notre travail présente plusieurs avantages distincts : (I) Perspective complète. Nous définissons le cycle de vie complet des LLMs comme englobant la préparation des données, le pré-entraînement, le post-entraînement, le déploiement et la commercialisation finale. À notre connaissance, il s'agit de la première étude de sécurité à couvrir l'ensemble du cycle de vie des LLMs. (II) Soutien littéraire étendu. Notre recherche s'appuie sur une revue exhaustive de plus de 800 articles, garantissant une couverture complète et une organisation systématique des problèmes de sécurité dans une compréhension plus holistique. (III) Perspectives uniques. Grâce à une analyse systématique de la littérature, nous avons développé des feuilles de route fiables et des perspectives pour chaque chapitre. Notre travail identifie des directions de recherche prometteuses, notamment la sécurité dans la génération de données, les techniques d'alignement, l'édition de modèles et les systèmes d'agents basés sur les LLMs. Ces perspectives offrent des orientations précieuses pour les chercheurs qui souhaitent poursuivre des travaux futurs dans ce domaine.
English
The remarkable success of Large Language Models (LLMs) has illuminated a
promising pathway toward achieving Artificial General Intelligence for both
academic and industrial communities, owing to their unprecedented performance
across various applications. As LLMs continue to gain prominence in both
research and commercial domains, their security and safety implications have
become a growing concern, not only for researchers and corporations but also
for every nation. Currently, existing surveys on LLM safety primarily focus on
specific stages of the LLM lifecycle, e.g., deployment phase or fine-tuning
phase, lacking a comprehensive understanding of the entire "lifechain" of LLMs.
To address this gap, this paper introduces, for the first time, the concept of
"full-stack" safety to systematically consider safety issues throughout the
entire process of LLM training, deployment, and eventual commercialization.
Compared to the off-the-shelf LLM safety surveys, our work demonstrates several
distinctive advantages: (I) Comprehensive Perspective. We define the complete
LLM lifecycle as encompassing data preparation, pre-training, post-training,
deployment and final commercialization. To our knowledge, this represents the
first safety survey to encompass the entire lifecycle of LLMs. (II) Extensive
Literature Support. Our research is grounded in an exhaustive review of over
800+ papers, ensuring comprehensive coverage and systematic organization of
security issues within a more holistic understanding. (III) Unique Insights.
Through systematic literature analysis, we have developed reliable roadmaps and
perspectives for each chapter. Our work identifies promising research
directions, including safety in data generation, alignment techniques, model
editing, and LLM-based agent systems. These insights provide valuable guidance
for researchers pursuing future work in this field.Summary
AI-Generated Summary