ChatPaper.aiChatPaper

RoboAlign: 視覚言語行動モデルにおける言語-行動連携のためのテスト時推論学習

RoboAlign: Learning Test-Time Reasoning for Language-Action Alignment in Vision-Language-Action Models

March 22, 2026
著者: Dongyoung Kim, Sumin Park, Woomin Song, Seungku Kim, Taeyoung Kim, Huiwon Jang, Jinwoo Shin, Jaehyung Kim, Younggyo Seo
cs.AI

要旨

マルチモーダル大規模言語モデル(MLLM)における具象的推論能力の向上は、マルチモーダル理解を低レベル行動へ変換する視覚-言語-行動モデル(VLA)を構築する上で極めて重要である。これに伴い、近年の研究では視覚質問応答型の教師信号を用いてMLLMの具象的推論を強化する手法が探求されてきた。しかしながら、これらのアプローチではVLAの性能が不安定になり、わずかな向上あるいはむしろ悪化をもたらすことが報告されている。本論文では、VLA性能を確実に改善する体系的なMLLM学習フレームワークRoboAlignを提案する。我々の核心的なアイデアは、ゼロショット自然言語推論により行動トークンをサンプリングし、強化学習(RL)を用いてこの推論を洗練させることで行動精度を高めることである。その結果、RoboAlignはMLLMにおける言語と低レベル行動のモダリティギャップを埋め、MLLMからVLAへの知識転移を促進する。RoboAlignの有効性を検証するため、MLLMバックボーン上に拡散ベースの行動ヘッドを追加したVLAを学習し、主要なロボティクスベンチマークで評価した。驚くべきことに、データの1%未満を用いたSFT後にRLベースのアライメントを実施するだけで、RoboAlignはLIBERO、CALVIN、実環境において、SFTベースラインに対してそれぞれ17.5%、18.9%、106.6%の性能向上を達成した。
English
Improving embodied reasoning in multimodal-large-language models (MLLMs) is essential for building vision-language-action models (VLAs) on top of them to readily translate multimodal understanding into low-level actions. Accordingly, recent work has explored enhancing embodied reasoning in MLLMs through supervision of vision-question-answering type. However, these approaches have been reported to result in unstable VLA performance, often yielding only marginal or even negative gains. In this paper, we propose a more systematic MLLM training framework RoboAlign that reliably improves VLA performance. Our key idea is to sample action tokens via zero-shot natural language reasoning and refines this reasoning using reinforcement learning (RL) to improve action accuracy. As a result, RoboAlign bridges the modality gap between language and low-level actions in MLLMs, and facilitate knowledge transfer from MLLM to VLA. To validate the effectiveness of RoboAlign, we train VLAs by adding a diffusion-based action head on top of an MLLM backbone and evaluate them on major robotics benchmarks. Remarkably, by performing RL-based alignment after SFT using less than 1\% of the data, RoboAlign achieves performance improvements of 17.5\%, 18.9\%, and 106.6\% over SFT baselines on LIBERO, CALVIN, and real-world environments, respectively.
PDF222March 25, 2026