ChatPaper.aiChatPaper

Modelos de Fundación Confiables y Responsables: Una Encuesta Integral

Reliable and Responsible Foundation Models: A Comprehensive Survey

February 4, 2026
Autores: Xinyu Yang, Junlin Han, Rishi Bommasani, Jinqi Luo, Wenjie Qu, Wangchunshu Zhou, Adel Bibi, Xiyao Wang, Jaehong Yoon, Elias Stengel-Eskin, Shengbang Tong, Lingfeng Shen, Rafael Rafailov, Runjia Li, Zhaoyang Wang, Yiyang Zhou, Chenhang Cui, Yu Wang, Wenhao Zheng, Huichi Zhou, Jindong Gu, Zhaorun Chen, Peng Xia, Tony Lee, Thomas Zollo, Vikash Sehwag, Jixuan Leng, Jiuhai Chen, Yuxin Wen, Huan Zhang, Zhun Deng, Linjun Zhang, Pavel Izmailov, Pang Wei Koh, Yulia Tsvetkov, Andrew Wilson, Jiaheng Zhang, James Zou, Cihang Xie, Hao Wang, Philip Torr, Julian McAuley, David Alvarez-Melis, Florian Tramèr, Kaidi Xu, Suman Jana, Chris Callison-Burch, Rene Vidal, Filippos Kokkinos, Mohit Bansal, Beidi Chen, Huaxiu Yao
cs.AI

Resumen

Los modelos fundacionales, incluyendo los Modelos de Lenguaje a Gran Escala (LLM), los Modelos de Lenguaje Multimodales a Gran Escala (MLLM), los Modelos Generativos de Imagen (es decir, Modelos de Texto a Imagen y Modelos de Edición de Imágenes) y los Modelos Generativos de Video, se han convertido en herramientas esenciales con amplias aplicaciones en diversos dominios como el derecho, la medicina, la educación, las finanzas, la ciencia y más. A medida que estos modelos experimentan un despliegue creciente en el mundo real, garantizar su fiabilidad y responsabilidad se ha vuelto crítico para la academia, la industria y los gobiernos. Esta revisión aborda el desarrollo fiable y responsable de los modelos fundacionales. Exploramos problemas críticos, incluyendo el sesgo y la equidad, la seguridad y la privacidad, la incertidumbre, la explicabilidad y el cambio de distribución. Nuestra investigación también cubre las limitaciones de los modelos, como las alucinaciones, así como métodos como la alineación y la detección de Contenido Generado por Inteligencia Artificial (AIGC). Para cada área, revisamos el estado actual del campo y esbozamos direcciones futuras de investigación concretas. Adicionalmente, discutimos las intersecciones entre estas áreas, destacando sus conexiones y desafíos compartidos. Esperamos que nuestra revisión fomente el desarrollo de modelos fundacionales que no solo sean potentes, sino también éticos, confiables, fiables y socialmente responsables.
English
Foundation models, including Large Language Models (LLMs), Multimodal Large Language Models (MLLMs), Image Generative Models (i.e, Text-to-Image Models and Image-Editing Models), and Video Generative Models, have become essential tools with broad applications across various domains such as law, medicine, education, finance, science, and beyond. As these models see increasing real-world deployment, ensuring their reliability and responsibility has become critical for academia, industry, and government. This survey addresses the reliable and responsible development of foundation models. We explore critical issues, including bias and fairness, security and privacy, uncertainty, explainability, and distribution shift. Our research also covers model limitations, such as hallucinations, as well as methods like alignment and Artificial Intelligence-Generated Content (AIGC) detection. For each area, we review the current state of the field and outline concrete future research directions. Additionally, we discuss the intersections between these areas, highlighting their connections and shared challenges. We hope our survey fosters the development of foundation models that are not only powerful but also ethical, trustworthy, reliable, and socially responsible.
PDF82February 11, 2026