ChatPaper.aiChatPaper

Renforcement de la Raisonnement Multimodal avec la Pensée Structurée Automatisée MCTS

Boosting Multimodal Reasoning with MCTS-Automated Structured Thinking

February 4, 2025
Auteurs: Jinyang Wu, Mingkuan Feng, Shuai Zhang, Ruihan Jin, Feihu Che, Zengqi Wen, Jianhua Tao
cs.AI

Résumé

Les grands modèles de langage multimodaux (MLLM) présentent des capacités impressionnantes mais rencontrent encore des défis en matière de raisonnement visuel complexe. Alors que des efforts récents tentent d'améliorer le raisonnement des MLLM en incorporant une pensée structurée similaire à OpenAI o1 à travers des structures de recherche explicites ou une distillation guidée par un enseignant, ils ont souvent du mal à équilibrer les performances et l'efficacité. Une limitation critique est leur forte dépendance à des données et des espaces de recherche étendus, entraînant une extraction d'informations implicites et une utilisation de données peu efficaces. Pour remédier à cela, nous proposons AStar, un paradigme de pensée structurée automatisée pour le raisonnement multimodal via la recherche arborescente Monte Carlo (MCTS). AStar dérive automatiquement des schémas de raisonnement cognitif de haut niveau à partir de données limitées en utilisant des structures hiérarchiques alimentées par MCTS. En nous appuyant sur ces schémas explicites, nous concevons un cadre de raisonnement unifié qui intègre de manière transparente les capacités de raisonnement interne des modèles et les directives de raisonnement externes, permettant une inférence efficace avec un nombre minimal d'itérations dans l'arbre. Ce nouveau paradigme trouve un équilibre convaincant entre les performances et l'efficacité. Des expériences approfondies démontrent l'efficacité d'AStar, atteignant une précision supérieure (54,0 %) sur le benchmark MathVerse avec une base de 7B, dépassant GPT-4o (50,2 %) tout en maintenant une efficacité de données et de calcul substantielle.
English
Multimodal large language models (MLLMs) exhibit impressive capabilities but still face challenges in complex visual reasoning. While recent efforts attempt to enhance MLLMs' reasoning by incorporating OpenAI o1-like structured thinking through explicit search structures or teacher-guided distillation, they often struggle to balance performance and efficiency. A critical limitation is their heavy reliance on extensive data and search spaces, resulting in low-efficiency implicit insight extraction and data utilization. To address this, we propose AStar, an Automated Structured thinking paradigm for multimodal reasoning via Monte Carlo Tree Search (MCTS). AStar automatically derives high-level cognitive reasoning patterns from limited data using MCTS-powered hierarchical structures. Building on these explicit patterns, we design a unified reasoning framework that seamlessly integrates models' internal reasoning capabilities and external reasoning guidelines, enabling efficient inference with minimal tree iterations. This novel paradigm strikes a compelling balance between performance and efficiency. Extensive experiments demonstrate AStar's effectiveness, achieving superior accuracy (54.0%) on the MathVerse benchmark with a 7B backbone, surpassing GPT-4o (50.2%) while maintaining substantial data and computational efficiency.

Summary

AI-Generated Summary

PDF224February 6, 2025