GPTモデルがロボット応用と出会う:共話ジェスチャーチャットシステム
GPT Models Meet Robotic Applications: Co-Speech Gesturing Chat System
May 10, 2023
著者: Naoki Wake, Atsushi Kanehira, Kazuhiro Sasabuchi, Jun Takamatsu, Katsushi Ikeuchi
cs.AI
要旨
本技術論文では、GPT-3やChatGPTなどの大規模言語モデル(LLM)の最新進展を活用したチャットロボットシステムを紹介する。このシステムは、発話の概念的な意味に基づいて適切なジェスチャーを選択する共話ジェスチャー生成システムと統合されている。我々の動機は、LLMの最近の進歩を実用的なロボットアプリケーションに活用する方法を探求し、それがチャットボットとLLMの両方の発展に寄与することである。具体的には、LLMを活用することで高度に応答性の高いチャットボットシステムの開発を可能にし、LLMのユーザーインターフェースに視覚効果を追加することで付加価値を提供する。本システムのソースコードは、社内ロボット用のGitHub(https://github.com/microsoft/LabanotationSuite/tree/master/MSRAbotChatSimulation)と、トヨタHSR用のGitHub(https://github.com/microsoft/GPT-Enabled-HSR-CoSpeechGestures)で公開されている。
English
This technical paper introduces a chatting robot system that utilizes recent
advancements in large-scale language models (LLMs) such as GPT-3 and ChatGPT.
The system is integrated with a co-speech gesture generation system, which
selects appropriate gestures based on the conceptual meaning of speech. Our
motivation is to explore ways of utilizing the recent progress in LLMs for
practical robotic applications, which benefits the development of both chatbots
and LLMs. Specifically, it enables the development of highly responsive chatbot
systems by leveraging LLMs and adds visual effects to the user interface of
LLMs as an additional value. The source code for the system is available on
GitHub for our in-house robot
(https://github.com/microsoft/LabanotationSuite/tree/master/MSRAbotChatSimulation)
and GitHub for Toyota HSR
(https://github.com/microsoft/GPT-Enabled-HSR-CoSpeechGestures).