Technisch Rapport Step-Audio-EditX
Step-Audio-EditX Technical Report
November 5, 2025
Auteurs: Chao Yan, Boyong Wu, Peng Yang, Pengfei Tan, Guoqiang Hu, Yuxin Zhang, Xiangyu, Zhang, Fei Tian, Xuerui Yang, Xiangyu Zhang, Daxin Jiang, Gang Yu
cs.AI
Samenvatting
Wij presenteren Step-Audio-EditX, het eerste open-source op een Large Language Model (LLM) gebaseerde audiomodel dat uitblinkt in expressieve en iteratieve audiobewerking, inclusief emotie, spreekstijl en paralinguïstiek, naast robuuste zero-shot text-to-speech (TTS) capaciteiten. Onze kerninnovatie schuilt in het gebruik van uitsluitend synthetische data met een grote marge, waardoor de noodzaak voor op embeddings gebaseerde prior knowledge of hulpmodules wordt omzeild. Deze 'large-margin learning'-aanpak maakt zowel iteratieve controle als hoge expressiviteit voor verschillende stemmen mogelijk, en vertegenwoordigt een fundamentele verschuiving ten opzichte van de conventionele focus op disentanglement op representatieniveau. Evaluatieresultaten tonen aan dat Step-Audio-EditX zowel MiniMax-2.6-hd als Doubao-Seed-TTS-2.0 overtreft in taken zoals emotiebewerking en andere fijnmazige controle-taken.
English
We present Step-Audio-EditX, the first open-source LLM-based audio model
excelling at expressive and iterative audio editing encompassing emotion,
speaking style, and paralinguistics alongside robust zero-shot text-to-speech
(TTS) capabilities.Our core innovation lies in leveraging only large-margin
synthetic data, which circumvents the need for embedding-based priors or
auxiliary modules. This large-margin learning approach enables both iterative
control and high expressivity across voices, and represents a fundamental pivot
from the conventional focus on representation-level disentanglement. Evaluation
results demonstrate that Step-Audio-EditX surpasses both MiniMax-2.6-hd and
Doubao-Seed-TTS-2.0 in emotion editing and other fine-grained control tasks.