ChatPaper.aiChatPaper

SIFT-50M: 音声指示ファインチューニングのための大規模多言語データセット

SIFT-50M: A Large-Scale Multilingual Dataset for Speech Instruction Fine-Tuning

April 12, 2025
著者: Prabhat Pandey, Rupak Vignesh Swaminathan, K V Vijay Girish, Arunasish Sen, Jian Xie, Grant P. Strimel, Andreas Schwarz
cs.AI

要旨

SIFT(Speech Instruction Fine-Tuning)を紹介します。これは、音声-テキスト大規模言語モデル(LLMs)の指示ファインチューニングおよび事前学習のために設計された5000万例のデータセットです。SIFT-50Mは、公開されている音声コーパスから構築されており、合計14,000時間の音声を含み、LLMsと既存の専門家モデルを活用しています。このデータセットは5つの言語をカバーし、多様な音声理解と制御可能な音声生成の指示を含んでいます。SIFT-50Mを使用して、SIFT-LLMを学習させ、指示追従ベンチマークにおいて既存の音声-テキストLLMsを上回り、基本的な音声タスクでも競争力のある性能を達成しました。さらに研究を支援するため、音声-テキストLLMsの指示追従能力を評価するために特別に設計されたベンチマークデータセットであるEvalSIFTも導入しました。
English
We introduce SIFT (Speech Instruction Fine-Tuning), a 50M-example dataset designed for instruction fine-tuning and pre-training of speech-text large language models (LLMs). SIFT-50M is built from publicly available speech corpora, which collectively contain 14K hours of speech, and leverages LLMs along with off-the-shelf expert models. The dataset spans five languages, encompassing a diverse range of speech understanding as well as controllable speech generation instructions. Using SIFT-50M, we train SIFT-LLM, which outperforms existing speech-text LLMs on instruction-following benchmarks while achieving competitive performance on foundational speech tasks. To support further research, we also introduce EvalSIFT, a benchmark dataset specifically designed to evaluate the instruction-following capabilities of speech-text LLMs.

Summary

AI-Generated Summary

PDF172April 17, 2025