ChatPaper.aiChatPaper

신뢰할 수 있고 책임 있는 기초 모델: 포괄적 조사

Reliable and Responsible Foundation Models: A Comprehensive Survey

February 4, 2026
저자: Xinyu Yang, Junlin Han, Rishi Bommasani, Jinqi Luo, Wenjie Qu, Wangchunshu Zhou, Adel Bibi, Xiyao Wang, Jaehong Yoon, Elias Stengel-Eskin, Shengbang Tong, Lingfeng Shen, Rafael Rafailov, Runjia Li, Zhaoyang Wang, Yiyang Zhou, Chenhang Cui, Yu Wang, Wenhao Zheng, Huichi Zhou, Jindong Gu, Zhaorun Chen, Peng Xia, Tony Lee, Thomas Zollo, Vikash Sehwag, Jixuan Leng, Jiuhai Chen, Yuxin Wen, Huan Zhang, Zhun Deng, Linjun Zhang, Pavel Izmailov, Pang Wei Koh, Yulia Tsvetkov, Andrew Wilson, Jiaheng Zhang, James Zou, Cihang Xie, Hao Wang, Philip Torr, Julian McAuley, David Alvarez-Melis, Florian Tramèr, Kaidi Xu, Suman Jana, Chris Callison-Burch, Rene Vidal, Filippos Kokkinos, Mohit Bansal, Beidi Chen, Huaxiu Yao
cs.AI

초록

대규모 언어 모델(LLM), 다중 모달 대규모 언어 모델(MLLM), 이미지 생성 모델(즉, 텍스트-이미지 모델 및 이미지 편집 모델), 비디오 생성 모델을 포함한 파운데이션 모델은 법률, 의학, 교육, 금융, 과학 등 다양한 분야에 걸쳐 광범위하게 응용되는 필수 도구로 자리 잡았습니다. 이러한 모델들이 실제 환경에 점차 배포됨에 따라, 그 신뢰성과 책임성을 확보하는 것은 학계, 산업계, 정부에 있어 중요한 과제가 되었습니다. 본 종설은 파운데이션 모델의 신뢰할 수 있고 책임 있는 개발을 다룹니다. 우리는 편향 및 공정성, 보안 및 프라이버시, 불확실성, 설명 가능성, 분포 변화를 비롯한 핵심 이슈들을 탐구합니다. 또한 환각(hallucination)과 같은 모델의 한계와 정렬(alignment), 인공지능 생성 콘텐츠(AIGC) 탐지와 같은 방법론도 연구 범위에 포함합니다. 각 분야에 대해 우리는 해당 분야의 현재 현황을 검토하고 구체적인 향후 연구 방향을 제시합니다. 더 나아가, 이러한 분야들 간의 교차점을 논의하며 그 상호 연관성과 공통된 과제를 부각합니다. 본 종설이 강력할 뿐만 아니라 윤리적이고 신뢰할 수 있으며, 믿음직스럽고 사회적으로 책임 있는 파운데이션 모델의 발전에 기여하기를 바랍니다.
English
Foundation models, including Large Language Models (LLMs), Multimodal Large Language Models (MLLMs), Image Generative Models (i.e, Text-to-Image Models and Image-Editing Models), and Video Generative Models, have become essential tools with broad applications across various domains such as law, medicine, education, finance, science, and beyond. As these models see increasing real-world deployment, ensuring their reliability and responsibility has become critical for academia, industry, and government. This survey addresses the reliable and responsible development of foundation models. We explore critical issues, including bias and fairness, security and privacy, uncertainty, explainability, and distribution shift. Our research also covers model limitations, such as hallucinations, as well as methods like alignment and Artificial Intelligence-Generated Content (AIGC) detection. For each area, we review the current state of the field and outline concrete future research directions. Additionally, we discuss the intersections between these areas, highlighting their connections and shared challenges. We hope our survey fosters the development of foundation models that are not only powerful but also ethical, trustworthy, reliable, and socially responsible.
PDF82February 11, 2026