SAFE: 視覚-言語-行動モデルのためのマルチタスク故障検出
SAFE: Multitask Failure Detection for Vision-Language-Action Models
June 11, 2025
著者: Qiao Gu, Yuanliang Ju, Shengxiang Sun, Igor Gilitschenski, Haruki Nishimura, Masha Itkina, Florian Shkurti
cs.AI
要旨
視覚-言語-動作モデル(VLA)は多様な操作タスクにおいて有望なロボット行動を示しているが、新規タスクにそのまま適用した場合の成功率は限定的である。これらのポリシーが環境と安全に相互作用するためには、ロボットが停止、バックトラック、または助けを求めることができるよう、タイムリーに警告を発する故障検出器が必要である。しかし、既存の故障検出器は特定の1つまたは少数のタスクでのみ訓練およびテストされており、VLAでは未見のタスクや新規環境での故障も検出できる汎用性が求められる。本論文では、マルチタスク故障検出問題を導入し、VLAのような汎用ロボットポリシー向けの故障検出器SAFEを提案する。VLAの特徴空間を分析し、VLAがタスクの成功と失敗に関する十分な高レベルの知識を持ち、それが異なるタスク間で汎用的であることを明らかにした。この知見に基づき、SAFEはVLAの内部特徴から学習し、タスク失敗の可能性を示す単一のスカラー値を予測するように設計されている。SAFEは成功および失敗したロールアウトで訓練され、未見のタスクで評価される。SAFEは異なるポリシーアーキテクチャと互換性があり、OpenVLA、pi_0、pi_0-FASTを用いてシミュレーション環境および実世界環境で広範にテストされた。SAFEを多様なベースラインと比較し、SAFEが最先端の故障検出性能を達成し、コンフォーマル予測を用いて精度と検出時間の最適なトレードオフを実現することを示す。より詳細な定性的結果はhttps://vla-safe.github.io/で確認できる。
English
While vision-language-action models (VLAs) have shown promising robotic
behaviors across a diverse set of manipulation tasks, they achieve limited
success rates when deployed on novel tasks out-of-the-box. To allow these
policies to safely interact with their environments, we need a failure detector
that gives a timely alert such that the robot can stop, backtrack, or ask for
help. However, existing failure detectors are trained and tested only on one or
a few specific tasks, while VLAs require the detector to generalize and detect
failures also in unseen tasks and novel environments. In this paper, we
introduce the multitask failure detection problem and propose SAFE, a failure
detector for generalist robot policies such as VLAs. We analyze the VLA feature
space and find that VLAs have sufficient high-level knowledge about task
success and failure, which is generic across different tasks. Based on this
insight, we design SAFE to learn from VLA internal features and predict a
single scalar indicating the likelihood of task failure. SAFE is trained on
both successful and failed rollouts, and is evaluated on unseen tasks. SAFE is
compatible with different policy architectures. We test it on OpenVLA, pi_0,
and pi_0-FAST in both simulated and real-world environments extensively. We
compare SAFE with diverse baselines and show that SAFE achieves
state-of-the-art failure detection performance and the best trade-off between
accuracy and detection time using conformal prediction. More qualitative
results can be found at https://vla-safe.github.io/.