ChatPaper.aiChatPaper

STAR-R1: Räumliche Transformationslogik durch Verstärkung multimodaler LLMs

STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

May 21, 2025
Autoren: Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang
cs.AI

Zusammenfassung

Multimodale Large Language Models (MLLMs) haben bemerkenswerte Fähigkeiten in verschiedenen Aufgaben gezeigt, liegen jedoch in Bezug auf räumliches Denken deutlich hinter dem Menschen zurück. Wir untersuchen diese Lücke durch Transformation-Driven Visual Reasoning (TVR), eine anspruchsvolle Aufgabe, die die Identifikation von Objekttransformationen über Bilder unter variierenden Blickwinkeln erfordert. Während traditionelles Supervised Fine-Tuning (SFT) in cross-view-Szenarien keine kohärenten Denkpfade erzeugen kann, leidet spärlich belohntes Reinforcement Learning (RL) unter ineffizienter Exploration und langsamer Konvergenz. Um diese Einschränkungen zu überwinden, schlagen wir STAR-R1 vor, ein neuartiges Framework, das ein einstufiges RL-Paradigma mit einem fein abgestimmten Belohnungsmechanismus speziell für TVR kombiniert. Konkret belohnt STAR-R1 teilweise Korrektheit, während es übermäßige Enumeration und passive Untätigkeit bestraft, wodurch effiziente Exploration und präzises Denken ermöglicht werden. Umfassende Auswertungen zeigen, dass STAR-R1 in allen 11 Metriken state-of-the-art Leistungen erzielt und SFT in cross-view-Szenarien um 23 % übertrifft. Weitere Analysen offenbaren das anthropomorphe Verhalten von STAR-R1 und unterstreichen seine einzigartige Fähigkeit, alle Objekte zu vergleichen, um das räumliche Denken zu verbessern. Unsere Arbeit liefert entscheidende Erkenntnisse für die Weiterentwicklung der Forschung zu MLLMs und Denkmodellen. Die Codes, Modellgewichte und Daten werden unter https://github.com/zongzhao23/STAR-R1 öffentlich verfügbar sein.
English
Multimodal Large Language Models (MLLMs) have demonstrated remarkable capabilities across diverse tasks, yet they lag significantly behind humans in spatial reasoning. We investigate this gap through Transformation-Driven Visual Reasoning (TVR), a challenging task requiring identification of object transformations across images under varying viewpoints. While traditional Supervised Fine-Tuning (SFT) fails to generate coherent reasoning paths in cross-view settings, sparse-reward Reinforcement Learning (RL) suffers from inefficient exploration and slow convergence. To address these limitations, we propose STAR-R1, a novel framework that integrates a single-stage RL paradigm with a fine-grained reward mechanism tailored for TVR. Specifically, STAR-R1 rewards partial correctness while penalizing excessive enumeration and passive inaction, enabling efficient exploration and precise reasoning. Comprehensive evaluations demonstrate that STAR-R1 achieves state-of-the-art performance across all 11 metrics, outperforming SFT by 23% in cross-view scenarios. Further analysis reveals STAR-R1's anthropomorphic behavior and highlights its unique ability to compare all objects for improving spatial reasoning. Our work provides critical insights in advancing the research of MLLMs and reasoning models. The codes, model weights, and data will be publicly available at https://github.com/zongzhao23/STAR-R1.

Summary

AI-Generated Summary

PDF82May 27, 2025