ChatPaper.aiChatPaper

Il Fine-Tuning con Rinforzo Potenzia le Capacità di Ragionamento dei Modelli Linguistici Multimodali di Grandi Dimensioni

Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

May 24, 2025
Autori: Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang
cs.AI

Abstract

Nel 2025, in un momento cruciale per il perseguimento dell'Intelligenza Artificiale Generale (AGI), il fine-tuning basato sul rinforzo (Reinforcement Fine-Tuning, RFT) ha dimostrato un potenziale significativo nel migliorare le capacità di ragionamento dei modelli linguistici di grandi dimensioni (Large Language Models, LLMs) e ha portato allo sviluppo di modelli di IA all'avanguardia come OpenAI-o1 e DeepSeek-R1. Inoltre, l'applicazione efficiente del RFT per potenziare le capacità di ragionamento dei modelli linguistici multimodali di grandi dimensioni (Multimodal Large Language Models, MLLMs) ha attirato un'ampia attenzione da parte della comunità. In questo position paper, sosteniamo che il fine-tuning basato sul rinforzo potenzia le capacità di ragionamento dei modelli linguistici multimodali di grandi dimensioni. Per cominciare, forniamo una dettagliata introduzione alle conoscenze di base che i ricercatori interessati a questo campo dovrebbero padroneggiare. Inoltre, riassumiamo meticolosamente i miglioramenti apportati dal RFT nel potenziare le capacità di ragionamento degli MLLMs in cinque punti chiave: modalità diverse, compiti e domini vari, algoritmi di addestramento migliorati, benchmark abbondanti e framework ingegneristici in crescita. Infine, proponiamo cinque promettenti direzioni per la ricerca futura che la comunità potrebbe considerare. Speriamo che questo position paper fornisca spunti preziosi alla comunità in questa fase cruciale del progresso verso l'AGI. Un riassunto dei lavori svolti sul RFT per gli MLLMs è disponibile all'indirizzo https://github.com/Sun-Haoyuan23/Awesome-RL-based-Reasoning-MLLMs.
English
Standing in 2025, at a critical juncture in the pursuit of Artificial General Intelligence (AGI), reinforcement fine-tuning (RFT) has demonstrated significant potential in enhancing the reasoning capability of large language models (LLMs) and has led to the development of cutting-edge AI models such as OpenAI-o1 and DeepSeek-R1. Moreover, the efficient application of RFT to enhance the reasoning capability of multimodal large language models (MLLMs) has attracted widespread attention from the community. In this position paper, we argue that reinforcement fine-tuning powers the reasoning capability of multimodal large language models. To begin with, we provide a detailed introduction to the fundamental background knowledge that researchers interested in this field should be familiar with. Furthermore, we meticulously summarize the improvements of RFT in powering reasoning capability of MLLMs into five key points: diverse modalities, diverse tasks and domains, better training algorithms, abundant benchmarks and thriving engineering frameworks. Finally, we propose five promising directions for future research that the community might consider. We hope that this position paper will provide valuable insights to the community at this pivotal stage in the advancement toward AGI. Summary of works done on RFT for MLLMs is available at https://github.com/Sun-Haoyuan23/Awesome-RL-based-Reasoning-MLLMs.
PDF193May 27, 2025