ChatPaper.aiChatPaper

STAR-R1: Ragionamento Spaziale mediante Trasformazioni attraverso il Rinforzo di Modelli Linguistici Multimodali

STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

May 21, 2025
Autori: Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang
cs.AI

Abstract

I Modelli Linguistici Multimodali di Grande Dimensione (MLLMs) hanno dimostrato capacità notevoli in una vasta gamma di compiti, ma rimangono significativamente indietro rispetto agli esseri umani nel ragionamento spaziale. Investigiamo questo divario attraverso il Ragionamento Visivo Guidato da Trasformazioni (TVR), un compito impegnativo che richiede l'identificazione delle trasformazioni degli oggetti tra immagini con punti di vista variabili. Mentre il Fine-Tuning Supervisionato (SFT) tradizionale non riesce a generare percorsi di ragionamento coerenti in contesti cross-view, il Reinforcement Learning (RL) con ricompensa sparsa soffre di esplorazione inefficiente e convergenza lenta. Per affrontare queste limitazioni, proponiamo STAR-R1, un nuovo framework che integra un paradigma RL a stadio singolo con un meccanismo di ricompensa fine-tuned specifico per il TVR. Nello specifico, STAR-R1 premia la correttezza parziale mentre penalizza l'enumerazione eccessiva e l'inazione passiva, consentendo un'esplorazione efficiente e un ragionamento preciso. Valutazioni complete dimostrano che STAR-R1 raggiunge prestazioni all'avanguardia in tutti gli 11 metrici, superando il SFT del 23% negli scenari cross-view. Un'ulteriore analisi rivela il comportamento antropomorfo di STAR-R1 e mette in luce la sua capacità unica di confrontare tutti gli oggetti per migliorare il ragionamento spaziale. Il nostro lavoro fornisce intuizioni critiche per avanzare la ricerca sugli MLLMs e i modelli di ragionamento. I codici, i pesi del modello e i dati saranno pubblicamente disponibili su https://github.com/zongzhao23/STAR-R1.
English
Multimodal Large Language Models (MLLMs) have demonstrated remarkable capabilities across diverse tasks, yet they lag significantly behind humans in spatial reasoning. We investigate this gap through Transformation-Driven Visual Reasoning (TVR), a challenging task requiring identification of object transformations across images under varying viewpoints. While traditional Supervised Fine-Tuning (SFT) fails to generate coherent reasoning paths in cross-view settings, sparse-reward Reinforcement Learning (RL) suffers from inefficient exploration and slow convergence. To address these limitations, we propose STAR-R1, a novel framework that integrates a single-stage RL paradigm with a fine-grained reward mechanism tailored for TVR. Specifically, STAR-R1 rewards partial correctness while penalizing excessive enumeration and passive inaction, enabling efficient exploration and precise reasoning. Comprehensive evaluations demonstrate that STAR-R1 achieves state-of-the-art performance across all 11 metrics, outperforming SFT by 23% in cross-view scenarios. Further analysis reveals STAR-R1's anthropomorphic behavior and highlights its unique ability to compare all objects for improving spatial reasoning. Our work provides critical insights in advancing the research of MLLMs and reasoning models. The codes, model weights, and data will be publicly available at https://github.com/zongzhao23/STAR-R1.
PDF102May 27, 2025