ChatPaper.aiChatPaper

Technisch Rapport Step-Audio-EditX

Step-Audio-EditX Technical Report

November 5, 2025
Auteurs: Chao Yan, Boyong Wu, Peng Yang, Pengfei Tan, Guoqiang Hu, Yuxin Zhang, Xiangyu, Zhang, Fei Tian, Xuerui Yang, Xiangyu Zhang, Daxin Jiang, Gang Yu
cs.AI

Samenvatting

Wij presenteren Step-Audio-EditX, het eerste open-source op een Large Language Model (LLM) gebaseerde audiomodel dat uitblinkt in expressieve en iteratieve audiobewerking, inclusief emotie, spreekstijl en paralinguïstiek, naast robuuste zero-shot text-to-speech (TTS) capaciteiten. Onze kerninnovatie schuilt in het gebruik van uitsluitend synthetische data met een grote marge, waardoor de noodzaak voor op embeddings gebaseerde prior knowledge of hulpmodules wordt omzeild. Deze 'large-margin learning'-aanpak maakt zowel iteratieve controle als hoge expressiviteit voor verschillende stemmen mogelijk, en vertegenwoordigt een fundamentele verschuiving ten opzichte van de conventionele focus op disentanglement op representatieniveau. Evaluatieresultaten tonen aan dat Step-Audio-EditX zowel MiniMax-2.6-hd als Doubao-Seed-TTS-2.0 overtreft in taken zoals emotiebewerking en andere fijnmazige controle-taken.
English
We present Step-Audio-EditX, the first open-source LLM-based audio model excelling at expressive and iterative audio editing encompassing emotion, speaking style, and paralinguistics alongside robust zero-shot text-to-speech (TTS) capabilities.Our core innovation lies in leveraging only large-margin synthetic data, which circumvents the need for embedding-based priors or auxiliary modules. This large-margin learning approach enables both iterative control and high expressivity across voices, and represents a fundamental pivot from the conventional focus on representation-level disentanglement. Evaluation results demonstrate that Step-Audio-EditX surpasses both MiniMax-2.6-hd and Doubao-Seed-TTS-2.0 in emotion editing and other fine-grained control tasks.
PDF283December 2, 2025