ChatPaper.aiChatPaper

GPTモデルがロボット応用と出会う:共話ジェスチャーチャットシステム

GPT Models Meet Robotic Applications: Co-Speech Gesturing Chat System

May 10, 2023
著者: Naoki Wake, Atsushi Kanehira, Kazuhiro Sasabuchi, Jun Takamatsu, Katsushi Ikeuchi
cs.AI

要旨

本技術論文では、GPT-3やChatGPTなどの大規模言語モデル(LLM)の最新進展を活用したチャットロボットシステムを紹介する。このシステムは、発話の概念的な意味に基づいて適切なジェスチャーを選択する共話ジェスチャー生成システムと統合されている。我々の動機は、LLMの最近の進歩を実用的なロボットアプリケーションに活用する方法を探求し、それがチャットボットとLLMの両方の発展に寄与することである。具体的には、LLMを活用することで高度に応答性の高いチャットボットシステムの開発を可能にし、LLMのユーザーインターフェースに視覚効果を追加することで付加価値を提供する。本システムのソースコードは、社内ロボット用のGitHub(https://github.com/microsoft/LabanotationSuite/tree/master/MSRAbotChatSimulation)と、トヨタHSR用のGitHub(https://github.com/microsoft/GPT-Enabled-HSR-CoSpeechGestures)で公開されている。
English
This technical paper introduces a chatting robot system that utilizes recent advancements in large-scale language models (LLMs) such as GPT-3 and ChatGPT. The system is integrated with a co-speech gesture generation system, which selects appropriate gestures based on the conceptual meaning of speech. Our motivation is to explore ways of utilizing the recent progress in LLMs for practical robotic applications, which benefits the development of both chatbots and LLMs. Specifically, it enables the development of highly responsive chatbot systems by leveraging LLMs and adds visual effects to the user interface of LLMs as an additional value. The source code for the system is available on GitHub for our in-house robot (https://github.com/microsoft/LabanotationSuite/tree/master/MSRAbotChatSimulation) and GitHub for Toyota HSR (https://github.com/microsoft/GPT-Enabled-HSR-CoSpeechGestures).
PDF20December 15, 2024