STAR-R1: Räumliche Transformationslogik durch Verstärkung multimodaler LLMs
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs
May 21, 2025
Autoren: Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang
cs.AI
Zusammenfassung
Multimodale Large Language Models (MLLMs) haben bemerkenswerte Fähigkeiten in verschiedenen Aufgaben gezeigt, liegen jedoch in Bezug auf räumliches Denken deutlich hinter dem Menschen zurück. Wir untersuchen diese Lücke durch Transformation-Driven Visual Reasoning (TVR), eine anspruchsvolle Aufgabe, die die Identifikation von Objekttransformationen über Bilder unter variierenden Blickwinkeln erfordert. Während traditionelles Supervised Fine-Tuning (SFT) in cross-view-Szenarien keine kohärenten Denkpfade erzeugen kann, leidet spärlich belohntes Reinforcement Learning (RL) unter ineffizienter Exploration und langsamer Konvergenz. Um diese Einschränkungen zu überwinden, schlagen wir STAR-R1 vor, ein neuartiges Framework, das ein einstufiges RL-Paradigma mit einem fein abgestimmten Belohnungsmechanismus speziell für TVR kombiniert. Konkret belohnt STAR-R1 teilweise Korrektheit, während es übermäßige Enumeration und passive Untätigkeit bestraft, wodurch effiziente Exploration und präzises Denken ermöglicht werden. Umfassende Auswertungen zeigen, dass STAR-R1 in allen 11 Metriken state-of-the-art Leistungen erzielt und SFT in cross-view-Szenarien um 23 % übertrifft. Weitere Analysen offenbaren das anthropomorphe Verhalten von STAR-R1 und unterstreichen seine einzigartige Fähigkeit, alle Objekte zu vergleichen, um das räumliche Denken zu verbessern. Unsere Arbeit liefert entscheidende Erkenntnisse für die Weiterentwicklung der Forschung zu MLLMs und Denkmodellen. Die Codes, Modellgewichte und Daten werden unter https://github.com/zongzhao23/STAR-R1 öffentlich verfügbar sein.
English
Multimodal Large Language Models (MLLMs) have demonstrated remarkable
capabilities across diverse tasks, yet they lag significantly behind humans in
spatial reasoning. We investigate this gap through Transformation-Driven Visual
Reasoning (TVR), a challenging task requiring identification of object
transformations across images under varying viewpoints. While traditional
Supervised Fine-Tuning (SFT) fails to generate coherent reasoning paths in
cross-view settings, sparse-reward Reinforcement Learning (RL) suffers from
inefficient exploration and slow convergence. To address these limitations, we
propose STAR-R1, a novel framework that integrates a single-stage RL paradigm
with a fine-grained reward mechanism tailored for TVR. Specifically, STAR-R1
rewards partial correctness while penalizing excessive enumeration and passive
inaction, enabling efficient exploration and precise reasoning. Comprehensive
evaluations demonstrate that STAR-R1 achieves state-of-the-art performance
across all 11 metrics, outperforming SFT by 23% in cross-view scenarios.
Further analysis reveals STAR-R1's anthropomorphic behavior and highlights its
unique ability to compare all objects for improving spatial reasoning. Our work
provides critical insights in advancing the research of MLLMs and reasoning
models. The codes, model weights, and data will be publicly available at
https://github.com/zongzhao23/STAR-R1.Summary
AI-Generated Summary