Modèles de Fondation Fiables et Responsables : Une Enquête Approfondie
Reliable and Responsible Foundation Models: A Comprehensive Survey
February 4, 2026
papers.authors: Xinyu Yang, Junlin Han, Rishi Bommasani, Jinqi Luo, Wenjie Qu, Wangchunshu Zhou, Adel Bibi, Xiyao Wang, Jaehong Yoon, Elias Stengel-Eskin, Shengbang Tong, Lingfeng Shen, Rafael Rafailov, Runjia Li, Zhaoyang Wang, Yiyang Zhou, Chenhang Cui, Yu Wang, Wenhao Zheng, Huichi Zhou, Jindong Gu, Zhaorun Chen, Peng Xia, Tony Lee, Thomas Zollo, Vikash Sehwag, Jixuan Leng, Jiuhai Chen, Yuxin Wen, Huan Zhang, Zhun Deng, Linjun Zhang, Pavel Izmailov, Pang Wei Koh, Yulia Tsvetkov, Andrew Wilson, Jiaheng Zhang, James Zou, Cihang Xie, Hao Wang, Philip Torr, Julian McAuley, David Alvarez-Melis, Florian Tramèr, Kaidi Xu, Suman Jana, Chris Callison-Burch, Rene Vidal, Filippos Kokkinos, Mohit Bansal, Beidi Chen, Huaxiu Yao
cs.AI
papers.abstract
Les modèles de base, incluant les grands modèles de langage (LLM), les grands modèles de langage multimodaux (MLLM), les modèles génératifs d'images (c'est-à-dire les modèles texte-image et les modèles de retouche d'image), et les modèles génératifs vidéo, sont devenus des outils essentiels avec des applications étendues dans divers domaines tels que le droit, la médecine, l'éducation, la finance, les sciences et au-delà. Alors que ces modèles sont déployés de plus en plus dans le monde réel, garantir leur fiabilité et leur responsabilité est devenu crucial pour le monde universitaire, l'industrie et les gouvernements. Cette étude aborde le développement fiable et responsable des modèles de base. Nous explorons des problèmes critiques, incluant les biais et l'équité, la sécurité et la vie privée, l'incertitude, l'explicabilité et le décalage de distribution. Notre recherche couvre également les limitations des modèles, telles que les hallucinations, ainsi que des méthodes comme l'alignement et la détection de contenu généré par intelligence artificielle (AIGC). Pour chaque domaine, nous passons en revue l'état actuel de la recherche et esquissons des orientations futures concrètes. De plus, nous discutons des intersections entre ces domaines, en soulignant leurs connexions et les défis communs. Nous espérons que notre étude favorisera le développement de modèles de base qui sont non seulement puissants, mais aussi éthiques, dignes de confiance, fiables et socialement responsables.
English
Foundation models, including Large Language Models (LLMs), Multimodal Large Language Models (MLLMs), Image Generative Models (i.e, Text-to-Image Models and Image-Editing Models), and Video Generative Models, have become essential tools with broad applications across various domains such as law, medicine, education, finance, science, and beyond. As these models see increasing real-world deployment, ensuring their reliability and responsibility has become critical for academia, industry, and government. This survey addresses the reliable and responsible development of foundation models. We explore critical issues, including bias and fairness, security and privacy, uncertainty, explainability, and distribution shift. Our research also covers model limitations, such as hallucinations, as well as methods like alignment and Artificial Intelligence-Generated Content (AIGC) detection. For each area, we review the current state of the field and outline concrete future research directions. Additionally, we discuss the intersections between these areas, highlighting their connections and shared challenges. We hope our survey fosters the development of foundation models that are not only powerful but also ethical, trustworthy, reliable, and socially responsible.