ChatPaper.aiChatPaper

Automejora en Modelos de Lenguaje Multimodales de Gran Escala: Una Revisión

Self-Improvement in Multimodal Large Language Models: A Survey

October 3, 2025
Autores: Shijian Deng, Kai Wang, Tianyu Yang, Harsh Singh, Yapeng Tian
cs.AI

Resumen

Los avances recientes en la auto-mejora de los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han mejorado eficientemente las capacidades de los modelos sin aumentar significativamente los costos, particularmente en términos de esfuerzo humano. Aunque este campo es todavía relativamente joven, su extensión al dominio multimodal tiene un potencial inmenso para aprovechar diversas fuentes de datos y desarrollar modelos auto-mejorables más generales. Esta revisión es la primera en proporcionar una visión integral de la auto-mejora en los Modelos de Lenguaje Multimodales (MLLMs). Ofrecemos una visión estructurada de la literatura actual y discutimos métodos desde tres perspectivas: 1) recopilación de datos, 2) organización de datos, y 3) optimización de modelos, para facilitar el desarrollo futuro de la auto-mejora en MLLMs. También incluimos evaluaciones comúnmente utilizadas y aplicaciones posteriores. Finalmente, concluimos delineando desafíos abiertos y direcciones futuras de investigación.
English
Recent advancements in self-improvement for Large Language Models (LLMs) have efficiently enhanced model capabilities without significantly increasing costs, particularly in terms of human effort. While this area is still relatively young, its extension to the multimodal domain holds immense potential for leveraging diverse data sources and developing more general self-improving models. This survey is the first to provide a comprehensive overview of self-improvement in Multimodal LLMs (MLLMs). We provide a structured overview of the current literature and discuss methods from three perspectives: 1) data collection, 2) data organization, and 3) model optimization, to facilitate the further development of self-improvement in MLLMs. We also include commonly used evaluations and downstream applications. Finally, we conclude by outlining open challenges and future research directions.
PDF176October 6, 2025