ChatPaper.aiChatPaper

S2S-Arena: パラ言語情報を伴う指示追従におけるSpeech2Speechプロトコルの評価

S2S-Arena, Evaluating Speech2Speech Protocols on Instruction Following with Paralinguistic Information

March 7, 2025
著者: Feng Jiang, Zhiyu Lin, Fan Bu, Yuhao Du, Benyou Wang, Haizhou Li
cs.AI

要旨

大規模言語モデル(LLM)の急速な発展に伴い、音声モデル、特に音声入出力をサポートするspeech2speechプロトコルの最近の進展が注目を集めています。しかし、既存のベンチマークでは、これらのモデルの指示追従能力を評価するために自動テキストベースの評価器を採用しており、音声理解と生成におけるパラ言語情報の考慮が欠如しています。これらの課題に対処するため、我々はS2S-Arenaを導入します。これは、現実世界のタスクにおいて、音声入力と音声出力の両方でパラ言語情報を考慮した指示追従能力を評価する、新たなアリーナ形式のS2Sベンチマークです。我々は、4つのドメインにおける21のタスクでTTSとライブ録音を融合した154のサンプルを設計し、既存の人気音声モデルをアリーナ形式で手動評価しました。実験結果は以下の通りです:(1)GPT-4oの優れた性能に加え、カスケード型のASR、LLM、TTSからなる音声モデルが、テキストと音声のアラインメント後の共同学習モデルをspeech2speechプロトコルで上回ること、(2)パラ言語情報を考慮すると、音声モデルの知識性は主にLLMバックボーンに依存し、その多言語サポートは音声モジュールによって制限されること、(3)優れた音声モデルは既に音声入力におけるパラ言語情報を理解できるが、適切なパラ言語情報を含む音声を生成することは依然として課題であること、を示しています。
English
The rapid development of large language models (LLMs) has brought significant attention to speech models, particularly recent progress in speech2speech protocols supporting speech input and output. However, the existing benchmarks adopt automatic text-based evaluators for evaluating the instruction following ability of these models lack consideration for paralinguistic information in both speech understanding and generation. To address these issues, we introduce S2S-Arena, a novel arena-style S2S benchmark that evaluates instruction-following capabilities with paralinguistic information in both speech-in and speech-out across real-world tasks. We design 154 samples that fused TTS and live recordings in four domains with 21 tasks and manually evaluate existing popular speech models in an arena-style manner. The experimental results show that: (1) in addition to the superior performance of GPT-4o, the speech model of cascaded ASR, LLM, and TTS outperforms the jointly trained model after text-speech alignment in speech2speech protocols; (2) considering paralinguistic information, the knowledgeability of the speech model mainly depends on the LLM backbone, and the multilingual support of that is limited by the speech module; (3) excellent speech models can already understand the paralinguistic information in speech input, but generating appropriate audio with paralinguistic information is still a challenge.

Summary

AI-Generated Summary

PDF482March 10, 2025