ChatPaper.aiChatPaper

Octopus: 環境フィードバックからの具現化された視覚-言語プログラマー

Octopus: Embodied Vision-Language Programmer from Environmental Feedback

October 12, 2023
著者: Jingkang Yang, Yuhao Dong, Shuai Liu, Bo Li, Ziyue Wang, Chencheng Jiang, Haoran Tan, Jiamu Kang, Yuanhan Zhang, Kaiyang Zhou, Ziwei Liu
cs.AI

要旨

大規模視覚言語モデル(VLMs)は、マルチモーダル知覚と推論において著しい進展を遂げてきました。さらに、これらがエンボディエージェントにシームレスに統合されることで、自律的かつ文脈を認識したシステムの構築に向けた重要な一歩を意味します。このようなシステムは、計画を立案し、正確に命令を実行することが可能です。本論文では、Octopusという新しいVLMを紹介します。Octopusは、エージェントの視覚とテキストタスク目標を的確に解読し、複雑なアクションシーケンスを策定し、実行可能なコードを生成するように設計されています。私たちの設計により、エージェントはシミュレータ内での日常的な作業から複雑なビデオゲームでの高度なインタラクションまで、幅広いタスクを巧みに処理することが可能です。Octopusは、GPT-4を活用して探索エージェントを制御し、OctoVerseと呼ばれる実験環境内でトレーニングデータ(アクションブループリントと対応する実行可能コード)を生成することでトレーニングされます。また、環境フィードバックを伴う強化学習(RLEF)の強化されたトレーニングスキームを可能にするフィードバックも収集します。一連の実験を通じて、Octopusの機能を明らかにし、説得力のある結果を示します。提案されたRLEFは、エージェントの意思決定を洗練させることが判明しました。私たちは、モデルアーキテクチャ、シミュレータ、およびデータセットをオープンソース化することで、さらなるイノベーションを引き起こし、広範なエンボディAIコミュニティ内での協力的なアプリケーションを促進することを目指しています。
English
Large vision-language models (VLMs) have achieved substantial progress in multimodal perception and reasoning. Furthermore, when seamlessly integrated into an embodied agent, it signifies a crucial stride towards the creation of autonomous and context-aware systems capable of formulating plans and executing commands with precision. In this paper, we introduce Octopus, a novel VLM designed to proficiently decipher an agent's vision and textual task objectives and to formulate intricate action sequences and generate executable code. Our design allows the agent to adeptly handle a wide spectrum of tasks, ranging from mundane daily chores in simulators to sophisticated interactions in complex video games. Octopus is trained by leveraging GPT-4 to control an explorative agent to generate training data, i.e., action blueprints and the corresponding executable code, within our experimental environment called OctoVerse. We also collect the feedback that allows the enhanced training scheme of Reinforcement Learning with Environmental Feedback (RLEF). Through a series of experiments, we illuminate Octopus's functionality and present compelling results, and the proposed RLEF turns out to refine the agent's decision-making. By open-sourcing our model architecture, simulator, and dataset, we aspire to ignite further innovation and foster collaborative applications within the broader embodied AI community.
PDF384December 15, 2024