ChatPaper.aiChatPaper

信頼性と責任ある基盤モデル:包括的サーベイ

Reliable and Responsible Foundation Models: A Comprehensive Survey

February 4, 2026
著者: Xinyu Yang, Junlin Han, Rishi Bommasani, Jinqi Luo, Wenjie Qu, Wangchunshu Zhou, Adel Bibi, Xiyao Wang, Jaehong Yoon, Elias Stengel-Eskin, Shengbang Tong, Lingfeng Shen, Rafael Rafailov, Runjia Li, Zhaoyang Wang, Yiyang Zhou, Chenhang Cui, Yu Wang, Wenhao Zheng, Huichi Zhou, Jindong Gu, Zhaorun Chen, Peng Xia, Tony Lee, Thomas Zollo, Vikash Sehwag, Jixuan Leng, Jiuhai Chen, Yuxin Wen, Huan Zhang, Zhun Deng, Linjun Zhang, Pavel Izmailov, Pang Wei Koh, Yulia Tsvetkov, Andrew Wilson, Jiaheng Zhang, James Zou, Cihang Xie, Hao Wang, Philip Torr, Julian McAuley, David Alvarez-Melis, Florian Tramèr, Kaidi Xu, Suman Jana, Chris Callison-Burch, Rene Vidal, Filippos Kokkinos, Mohit Bansal, Beidi Chen, Huaxiu Yao
cs.AI

要旨

大規模言語モデル(LLM)、マルチモーダル大規模言語モデル(MLLM)、画像生成モデル(テキスト画像生成モデル・画像編集モデル)、動画生成モデルなどの基盤モデルは、法律、医療、教育、金融、科学など多岐にわたる分野で不可欠なツールとなっている。こうしたモデルの実社会での展開が進むにつれ、その信頼性と責任ある利用の確保は、学界・産業界・政府にとって極めて重要となっている。本調査は、基盤モデルの信頼性と責任ある開発に焦点を当てる。我々は、バイアスと公平性、セキュリティとプライバシー、不確実性、説明可能性、分布シフトといった重要課題を探求する。また、幻覚(ハルシネーション)のようなモデルの限界や、アライメント手法、AI生成コンテンツ(AIGC)検出手法についても検討する。各領域において、学界の現状をレビューし、具体的な将来の研究方向性を提示する。加えて、これらの領域間の相互関係を論じ、それらの関連性と共通の課題を明らかにする。本調査が、単に強力であるだけでなく、倫理的、信頼性が高く、社会的責任を果たす基盤モデルの開発を促進することを願う。
English
Foundation models, including Large Language Models (LLMs), Multimodal Large Language Models (MLLMs), Image Generative Models (i.e, Text-to-Image Models and Image-Editing Models), and Video Generative Models, have become essential tools with broad applications across various domains such as law, medicine, education, finance, science, and beyond. As these models see increasing real-world deployment, ensuring their reliability and responsibility has become critical for academia, industry, and government. This survey addresses the reliable and responsible development of foundation models. We explore critical issues, including bias and fairness, security and privacy, uncertainty, explainability, and distribution shift. Our research also covers model limitations, such as hallucinations, as well as methods like alignment and Artificial Intelligence-Generated Content (AIGC) detection. For each area, we review the current state of the field and outline concrete future research directions. Additionally, we discuss the intersections between these areas, highlighting their connections and shared challenges. We hope our survey fosters the development of foundation models that are not only powerful but also ethical, trustworthy, reliable, and socially responsible.
PDF82February 11, 2026