ChatPaper.aiChatPaper

SpeechGPT: 내재적 크로스모달 대화 능력으로 대형 언어 모델 강화하기

SpeechGPT: Empowering Large Language Models with Intrinsic Cross-Modal Conversational Abilities

May 18, 2023
저자: Dong Zhang, Shimin Li, Xin Zhang, Jun Zhan, Pengyu Wang, Yaqian Zhou, Xipeng Qiu
cs.AI

초록

멀티모달 대규모 언어 모델은 인공 일반 지능(AGI)으로 나아가는 중요한 단계로 간주되며, ChatGPT의 등장과 함께 상당한 관심을 끌고 있습니다. 그러나 현재의 음성-언어 모델은 일반적으로 캐스케이드 패러다임을 채택하여 모달 간 지식 전달을 방해하고 있습니다. 본 논문에서는 크로스모달 대화 능력을 내재한 대규모 언어 모델인 SpeechGPT를 제안합니다. 이 모델은 멀티모달 콘텐츠를 인지하고 생성할 수 있습니다. 이산적 음성 표현을 사용하여, 우리는 먼저 대규모 크로스모달 음성 명령 데이터셋인 SpeechInstruct를 구축했습니다. 또한, 모달 적응 사전 학습, 크로스모달 명령 미세 조정, 그리고 모달 체인 명령 미세 조정을 포함한 3단계 학습 전략을 채택했습니다. 실험 결과는 SpeechGPT가 멀티모달 인간 명령을 따르는 인상적인 능력을 보여주며, 하나의 모델로 여러 모달리티를 처리할 수 있는 잠재력을 강조합니다. 데모는 https://0nutation.github.io/SpeechGPT.github.io/에서 확인할 수 있습니다.
English
Multi-modal large language models are regarded as a crucial step towards Artificial General Intelligence (AGI) and have garnered significant interest with the emergence of ChatGPT. However, current speech-language models typically adopt the cascade paradigm, preventing inter-modal knowledge transfer. In this paper, we propose SpeechGPT, a large language model with intrinsic cross-modal conversational abilities, capable of perceiving and generating multi-model content. With discrete speech representations, we first construct SpeechInstruct, a large-scale cross-modal speech instruction dataset. Additionally, we employ a three-stage training strategy that includes modality-adaptation pre-training, cross-modal instruction fine-tuning, and chain-of-modality instruction fine-tuning. The experimental results demonstrate that SpeechGPT has an impressive capacity to follow multi-modal human instructions and highlight the potential of handling multiple modalities with one model. Demos are shown in https://0nutation.github.io/SpeechGPT.github.io/.
PDF42December 15, 2024